Geschäftslösungen
Informatik, Telefonie
Sicherheit
24.07.2023 08:40

Mit anderen teilen:

Aktie

Führende Unternehmen einigen sich auf Sicherheitsvorkehrungen für den Umgang mit künstlicher Intelligenz

Foto: jcomp auf Freepik
Foto: jcomp auf Freepik

Das Weiße Haus gab bekannt, dass sich sieben führende Unternehmen im Bereich der künstlichen Intelligenz verpflichtet haben, die von der neuen Technologie ausgehenden Risiken zu bewältigen.

Dazu gehören Sicherheitstests mit künstlicher Intelligenz und die öffentliche Offenlegung der Ergebnisse dieser Tests.

Vertreter von Amazon, Anthropic, Google, Inflection, Meta, Microsoft und OpenAI kündigten gemeinsam mit US-Präsident Joe Biden die Zusammenarbeit an.

Die Geschwindigkeit, mit der Unternehmen ihre Tools entwickeln, hat insbesondere im Vorfeld der US-Präsidentschaftswahl 2024 Ängste vor der Verbreitung von Desinformation geschürt.

„Wir müssen uns der Bedrohungen bewusst sein, die von neuen Technologien ausgehen und die eine Bedrohung darstellen können. nicht unbedingt, aber sie können – „Eine Gefahr für die Demokratie und unsere Werte“, sagte Präsident Joe Biden während seiner Rede am Freitag.

Letzte Woche veröffentlichte auch Facebooks Mutterkonzern Meta ein eigenes KI-Tool namens Llama 2.

Im Rahmen der am Freitag unterzeichneten Vereinbarung einigten sich die Unternehmen und die US-Regierung auf Folgendes:

  • Sicherheitstests ihrer KI-Systeme durch interne und externe Experten vor ihrer Veröffentlichung
  • Durch die Einführung von Wasserzeichen wird sichergestellt, dass KI-Inhalte für Menschen sichtbar sind
  • Regelmäßige öffentliche Berichterstattung über die Möglichkeiten und Grenzen von KI
  • Erkundung von Risiken wie Voreingenommenheit, Diskriminierung und Verletzung der Privatsphäre

Ziel ist es, den Menschen leicht zu erkennen, wann Online-Inhalte durch künstliche Intelligenz erstellt werden.

Wasserzeichen für KI-generierte Inhalte gehörten zu den Themen, die EU-Kommissar Thierry Breton bei einem Besuch in San Francisco im Juni mit OpenAI-CEO Sam Altman besprach.

„Ich freue mich darauf, unsere Diskussionen fortzusetzen – insbesondere zum Thema Wasserzeichen“, schrieb Breton in einem Tweet, der einen Ausschnitt aus einem Video von ihm und Herrn Altman enthielt.

In dem Video sagte Herr Altman, dass ich „sehr bald zeigen möchte“, was OpenAI mit Wasserzeichen macht.

Die am Freitag unterzeichneten freiwilligen Schutzmaßnahmen sind ein Schritt hin zu einer strengeren Regulierung künstlicher Intelligenz in den USA.

Das Weiße Haus sagte, es werde auch mit Verbündeten zusammenarbeiten, um einen internationalen Rahmen für die Verwaltung der Entwicklung und Nutzung künstlicher Intelligenz zu schaffen. Zu den Warnungen vor der Technologie gehört, dass sie zur Erzeugung von Desinformation und zur Destabilisierung der Gesellschaft eingesetzt werden könnte und dass sie ein existenzielles Risiko für die Jagd darstellen könnte. čobwohl einige Experten sagten, dass die apokalyptischen Warnungen übertrieben seien.

Europa bereitet außerdem ein eigenes Gesetz zur künstlichen Intelligenz vor, das für alle gilt, die Systeme der künstlichen Intelligenz in der EU entwickeln und einsetzen. Es weist einige Ähnlichkeiten mit dem neuen amerikanischen Kooperationspakt auf. Der Umfang der Regulierung hängt von den mit jeder Anwendung verbundenen Risiken ab und reicht von minimal bis „inakzeptabel“. Systeme, die in die letztgenannte Kategorie fallen, sind völlig verboten. Dazu gehören Echtzeit-Gesichtserkennungssysteme im öffentlichen Raum, prädiktive Polizeiwerkzeuge und Social-Scoring-Systeme wie in China, die Menschen anhand ihres Verhaltens eine „Punktzahl“ zuweisen.

Die Gesetzgebung legt außerdem strenge Grenzen für „risikoreiche“ KI-Anwendungen fest, also solche, die „erhebliche Schäden für die menschliche Gesundheit, Sicherheit, Grundrechte oder die Umwelt“ drohen.

Dazu gehören Systeme zur Wählerbeeinflussung bei Wahlen sowie Social-Media-Plattformen mit mehreren über 45 Millionen Nutzer empfehlen ihren Nutzern Inhalte – eine Liste, die Facebook, Twitter, Instagram und auch die neuesten Threads umfassen würde.

Das Gesetz legt auch die Transparenzanforderungen für Systeme der künstlichen Intelligenz fest.

Systeme wie ChatGPT sollten beispielsweise offenlegen, dass ihre Inhalte durch künstliche Intelligenz generiert wurden, stark gefälschte Bilder von echten unterscheiden und Schutz vor der Erstellung illegaler Inhalte bieten.

Künstliche Intelligenz hat viel Aufmerksamkeit erregt, sowohl im Positiven als auch im Negativen. Die gute Nachricht ist, dass Regierungen und Unternehmen frühzeitig auf viele öffentliche Bedenken reagiert und vorsorglich mit der Regulierung begonnen haben.

Titelbild: Bild von jcomp auf Freepik


Interessiert an mehr zu diesem Thema?
ChatGPT Facebook Minze künstliche Intelligenz


Was lesen andere?