Soluzioni aziendali
Informatica, telefonia
Sicurezza
24.07.2023 08:40

Condividi con gli altri:

Condividere

Le aziende leader concordano misure di salvaguardia per gestire l’intelligenza artificiale

Foto: jcomp su Freepik
Foto: jcomp su Freepik

La Casa Bianca ha annunciato che sette aziende leader nel campo dell'intelligenza artificiale si sono impegnate a gestire i rischi posti dalla nuova tecnologia.

Ciò includerà test di sicurezza dell’intelligenza artificiale e la divulgazione pubblica dei risultati di questi test.

Rappresentanti di Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI si sono uniti al presidente degli Stati Uniti Joe Biden nell'annunciare la collaborazione.

La velocità con cui le aziende stanno sviluppando i propri strumenti ha alimentato i timori sulla diffusione della disinformazione, soprattutto nel periodo precedente alle elezioni presidenziali americane del 2024.

“Dobbiamo essere chiari e attenti alle minacce derivanti dalle tecnologie emergenti che possono rappresentare – non necessariamente, ma possono rappresentare – un rischio per la democrazia e i nostri valori", ha affermato il presidente Joe Biden durante il suo discorso di venerdì.

La settimana scorsa, anche la società madre di Facebook, Meta, ha rilasciato il proprio strumento di intelligenza artificiale chiamato Llama 2.

Nell’ambito dell’accordo firmato venerdì, le aziende e il governo degli Stati Uniti hanno convenuto di:

  • Test di sicurezza dei loro sistemi di intelligenza artificiale da parte di esperti interni ed esterni prima del loro rilascio
  • Garantire che i contenuti dell'intelligenza artificiale possano essere visti dagli esseri umani introducendo filigrane
  • Reporting pubblico regolare sulle capacità e sui limiti dell’intelligenza artificiale
  • Esplorare rischi quali pregiudizi, discriminazioni e violazioni della privacy

L’obiettivo è consentire alle persone di capire facilmente quando i contenuti online vengono creati dall’intelligenza artificiale.

Le filigrane per i contenuti generati dall'intelligenza artificiale sono stati tra gli argomenti discussi dal commissario europeo Thierry Breton con il CEO di OpenAI Sam Altman durante una visita a San Francisco a giugno.

"Non vedo l'ora di continuare le nostre discussioni, in particolare sulla filigrana", ha scritto Breton in un tweet che includeva una clip di un video di se stesso e del signor Altman.

Nel video, il signor Altman ha detto che "molto presto, mi piacerebbe mostrare" cosa fa OpenAI con le filigrane.

Le misure di salvaguardia volontarie firmate venerdì rappresentano un passo avanti verso una regolamentazione più rigorosa dell’intelligenza artificiale negli Stati Uniti.

La Casa Bianca ha affermato che lavorerà anche con gli alleati per stabilire un quadro internazionale per la gestione dello sviluppo e dell’uso dell’intelligenza artificiale. Gli avvertimenti sulla tecnologia includono che potrebbe essere utilizzata per generare disinformazione e destabilizzare la società e che potrebbe rappresentare un rischio esistenziale per la caccia – €“ Anche se alcuni esperti hanno affermato che gli avvertimenti apocalittici erano esagerati.

L’Europa sta inoltre preparando una propria legge sull’intelligenza artificiale, che si applicherà a tutti coloro che sviluppano e utilizzano sistemi di intelligenza artificiale nell’UE. Ha non poche somiglianze con il nuovo patto di cooperazione americano. La portata della regolamentazione dipende dai rischi creati da ciascuna applicazione, da minimi a “inaccettabili”. I sistemi che rientrano in quest'ultima categoria sono completamente vietati. Questi includono sistemi di riconoscimento facciale in tempo reale negli spazi pubblici, strumenti di polizia predittiva e sistemi di punteggio sociale come quelli cinesi che assegnano alle persone un “punteggio” in base al loro comportamento.

La legislazione stabilisce inoltre limiti severi alle applicazioni di intelligenza artificiale “ad alto rischio”, ovvero quelle che minacciano “danni significativi alla salute umana, alla sicurezza, ai diritti fondamentali o all’ambiente”.

Questi includono sistemi utilizzati per influenzare gli elettori alle elezioni, nonché piattaforme di social media con molteplici di 45 milioni di utenti che consigliano contenuti ai propri utenti – un elenco che includerebbe Facebook, Twitter, Instagram e anche gli ultimi Thread.

La legge delinea anche i requisiti di trasparenza per i sistemi di intelligenza artificiale.

Ad esempio, sistemi come ChatGPT dovrebbero rivelare che i loro contenuti sono stati generati dall’intelligenza artificiale, distinguere le immagini profondamente false da quelle reali e fornire protezione contro la creazione di contenuti illegali.

L’intelligenza artificiale ha attirato molta attenzione, sia positiva che negativa. La buona notizia è che i governi e le aziende hanno risposto tempestivamente a molte preoccupazioni del pubblico e hanno iniziato a regolamentare a scopo precauzionale.

Immagine di copertina: Immagine di jcomp su Freepik


Ti interessa saperne di più su questo argomento?
ChatGPT Facebook menta intelligenza artificiale


Cosa stanno leggendo gli altri?