Soluciones de negocios
informática, telefonía
Seguridad
24.07.2023 08:40

Compartir con otros:

Compartir

Empresas líderes acuerdan salvaguardas para gestionar la inteligencia artificial

Foto: jcomp en Freepik
Foto: jcomp en Freepik

La Casa Blanca anunció que siete empresas líderes en el campo de la inteligencia artificial se han comprometido a gestionar los riesgos que plantea la nueva tecnología.

Esto incluirá pruebas de seguridad de inteligencia artificial y la divulgación pública de los resultados de estas pruebas.

Representantes de Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI se unieron al presidente estadounidense Joe Biden para anunciar la colaboración.

La velocidad con la que las empresas están desarrollando sus herramientas ha alimentado los temores de la difusión de desinformación, especialmente en el período previo a las elecciones presidenciales estadounidenses de 2024.

“Debemos ser claros y estar atentos a las amenazas que surgen de las tecnologías emergentes que pueden representar – no necesariamente, pero pueden representar – un riesgo para la democracia y nuestros valores", afirmó el presidente Joe Biden durante su discurso del viernes.

La semana pasada, Meta, la empresa matriz de Facebook, también lanzó su propia herramienta de inteligencia artificial llamada Llama 2.

Como parte del acuerdo firmado el viernes, las empresas y el gobierno de Estados Unidos acordaron:

  • Pruebas de seguridad de sus sistemas de inteligencia artificial por parte de expertos internos y externos antes de su lanzamiento.
  • Garantizar que los humanos puedan ver el contenido de IA mediante la introducción de marcas de agua
  • Informes públicos periódicos sobre las capacidades y limitaciones de la IA
  • Explorar riesgos como el prejuicio, la discriminación y la invasión de la privacidad

El objetivo es facilitar que las personas sepan cuándo el contenido en línea es creado por inteligencia artificial.

Las marcas de agua para el contenido generado por IA estuvieron entre los temas que el Comisario Europeo Thierry Breton discutió con el CEO de OpenAI, Sam Altman, durante una visita a San Francisco en junio.

"Espero continuar nuestras discusiones, particularmente sobre las marcas de agua", escribió Breton en un tweet que incluía un fragmento de un video de él y Altman.

En el vídeo, Altman dijo que "muy pronto me gustaría mostrar" lo que hace OpenAI con las marcas de agua.

Las salvaguardias voluntarias firmadas el viernes son un paso hacia una regulación más estricta de la inteligencia artificial en Estados Unidos.

La Casa Blanca dijo que también trabajará con aliados para establecer un marco internacional para gestionar el desarrollo y uso de la inteligencia artificial. Las advertencias sobre la tecnología incluyen que podría usarse para generar desinformación y desestabilizar a la sociedad, y que podría representar un riesgo existencial para la caza. čaunque algunos expertos dijeron que las advertencias apocalípticasčeran exageradas.

Europa también está preparando su propia ley sobre inteligencia artificial, que se aplicará a todos los que desarrollen e implementen sistemas de inteligencia artificial en la UE. Tiene bastantes similitudes con el nuevo pacto de cooperación americano. El alcance de la regulación depende de los riesgos creados por cada aplicación, desde mínimos hasta “inaceptables”. Los sistemas que entran en esta última categoría están completamente prohibidos. Estos incluyen sistemas de reconocimiento facial en tiempo real en espacios públicos, herramientas policiales predictivas y sistemas de puntuación social similares a los de China que asignan a las personas una "puntuación" basada en su comportamiento.

La legislación también establece límites estrictos a las aplicaciones de IA de "alto riesgo", que son aquellas que amenazan con "daños significativos a la salud humana, la seguridad, los derechos fundamentales o el medio ambiente".

Estos incluyen sistemas utilizados para influir en los votantes en las elecciones, así como plataformas de redes sociales con múltiples de 45 millones de usuarios recomiendan contenido a sus usuarios – una lista que incluiría Facebook, Twitter, Instagram y también los últimos Threads.

La ley también describe los requisitos de transparencia para los sistemas de inteligencia artificial.

Por ejemplo, sistemas como ChatGPT deberían revelar que su contenido ha sido generado por inteligencia artificial, distinguir las imágenes profundamente falsificadas de las reales y brindar protección contra la creación de contenido ilegal.

La inteligencia artificial ha atraído mucha atención, tanto positiva como negativa. La buena noticia es que los gobiernos y las empresas respondieron desde el principio a las numerosas preocupaciones del público y comenzaron a regular de forma preventiva.

Imagen de portada: Imagen de jcomp en Freepik


¿Interesado en más sobre este tema?
ChatGPT Facebook menta inteligencia artificial


¿Qué están leyendo los demás?