Des solutions d'affaires
Informatique, téléphonie
Sécurité
24.07.2023 08:40

Partager avec d'autres :

Partager

Les grandes entreprises s’accordent sur des garanties pour gérer l’intelligence artificielle

Photo de : jcomp on Freepik
Photo de : jcomp on Freepik

La Maison Blanche a annoncé que sept entreprises leaders dans le domaine de l'intelligence artificielle se sont engagées à gérer les risques posés par cette nouvelle technologie.

Cela comprendra des tests de sécurité de l’intelligence artificielle et la divulgation publique des résultats de ces tests.

Des représentants d'Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI se sont joints au président américain Joe Biden pour annoncer cette collaboration.

La rapidité avec laquelle les entreprises développent leurs outils alimente les craintes de propagation de la désinformation, notamment à l’approche de l’élection présidentielle américaine de 2024.

"Nous devons être clairs et attentifs aux menaces découlant des technologies émergentes qui peuvent représenter – pas nécessairement, mais ils peuvent représenter – un risque pour la démocratie et nos valeurs", a déclaré le président Joe Biden lors de son discours de vendredi.

La semaine dernière, la société mère de Facebook, Meta, a également publié son propre outil d'IA appelé Llama 2.

Dans le cadre de l'accord signé vendredi, les entreprises et le gouvernement américain ont convenu de :

  • Tests de sécurité de leurs systèmes d'IA par des experts internes et externes avant leur sortie
  • Garantir que le contenu de l'IA peut être vu par les humains en introduisant des filigranes
  • Rapports publics réguliers sur les capacités et les limites de l'IA
  • Explorer les risques tels que les préjugés, la discrimination et l’invasion de la vie privée

L’objectif est de permettre aux gens de savoir facilement quand un contenu en ligne est créé par l’intelligence artificielle.

Les filigranes pour le contenu généré par l'IA figuraient parmi les sujets abordés par le commissaire européen Thierry Breton avec le PDG d'OpenAI, Sam Altman, lors d'une visite à San Francisco en juin.

"J'ai hâte de poursuivre nos discussions - en particulier sur le filigrane", a écrit Breton dans un tweet comprenant un extrait d'une vidéo de lui-même et de M. Altman.

Dans la vidéo, M. Altman a déclaré que « très bientôt, j'aimerais montrer » ce qu'OpenAI fait avec les filigranes.

Les garanties volontaires signées vendredi constituent une étape vers une réglementation plus stricte de l’intelligence artificielle aux États-Unis.

La Maison Blanche a déclaré qu'elle travaillerait également avec ses alliés pour établir un cadre international pour gérer le développement et l'utilisation de l'intelligence artificielle. Les avertissements concernant cette technologie incluent qu'elle pourrait être utilisée pour générer de la désinformation et déstabiliser la société, et qu'elle pourrait poser un risque existentiel pour la chasse aux animaux de compagnie. « même si certains experts ont déclaré que les avertissements apocalyptiques » étaient exagérés.

L’Europe prépare également sa propre loi sur l’intelligence artificielle, qui s’appliquera à tous ceux qui développent et déploient des systèmes d’intelligence artificielle dans l’UE. Il présente de nombreuses similitudes avec le nouveau pacte de coopération américain. L'étendue de la réglementation dépend des risques créés par chaque application, de minimes à « inacceptables ». Les systèmes entrant dans cette dernière catégorie sont totalement interdits. Il s'agit notamment de systèmes de reconnaissance faciale en temps réel dans les espaces publics, d'outils de police prédictive et de systèmes de notation sociale comme ceux en Chine qui attribuent aux personnes un « score » en fonction de leur comportement.

La législation fixe également des limites strictes aux applications d'IA « à haut risque », c'est-à-dire celles qui menacent « de nuire de manière significative à la santé humaine, à la sécurité, aux droits fondamentaux ou à l'environnement ».

Il s’agit notamment des systèmes utilisés pour influencer les électeurs lors des élections, ainsi que des plateformes de médias sociaux aux multiples facettes. plus de 45 millions d'utilisateurs recommandant du contenu à leurs utilisateurs -“ une liste qui comprendrait Facebook, Twitter, Instagram ainsi que les derniers Threads.

La loi définit également les exigences de transparence pour les systèmes d’intelligence artificielle.

Par exemple, des systèmes comme ChatGPT devraient révéler que leur contenu a été généré par l’intelligence artificielle, distinguer les images profondément truquées des images réelles et offrir une protection contre la création de contenu illégal.

L’intelligence artificielle a suscité beaucoup d’attention, tant positive que négative. La bonne nouvelle est que les gouvernements et les entreprises ont réagi très tôt aux nombreuses préoccupations du public et ont commencé à réglementer par mesure de précaution.

Image de couverture : Image de jcomp sur Freepik


Vous souhaitez en savoir plus sur ce sujet ?
ChatGPT Facebook menthe intelligence artificielle


Que lisent les autres ?