Esclusiva

Maggio 24 2024
Etica e tecnologia, OpenAI scioglie la commissione di vigilanza

L’azienda OpenAI, ideatrice del tool di intelligenza artificiale ChatGPT, ha sciolto il team che aveva il compito di vigilare sui prodotti

La società di OpenAI, laboratorio di ricerca sull’intelligenza artificiale (AI), ha comunicato di aver sciolto la commissione che aveva il compito di studiare e prevenire gli eventuali rischi dei propri prodotti. Il cosiddetto “Superalignment team” era stato costituito alla fine dello scorso anno, 2023, per vigilare che i sistemi di intelligenza artificiale non superassero le abilità degli esseri umani.

La notizia è arrivata lo scorso venerdì 17 maggio, quando il co-fondatore dell’azienda Ilya Sutskever e il leader del team di Superallineamento Jan Leike hanno postato dei tweet su X in cui dichiaravano di aver lasciato OpenAI. In particolare, Leike ha fatto trasparire una certa vena polemica nei confronti del direttivo dell’azienda, scrivendo: «Ieri è stato il mio ultimo giorno in qualità di capo del team di allineamento. OpenAI deve diventare una società attenta alla sicurezza». Rivolgendosi poi agli altri dipendenti ha aggiunto: «agite con il peso appropriato per ciò che state costruendo. Credo che possiate trasmettere il cambiamento culturale necessario. Conto su di voi. Il mondo conta su di voi».

Lo scioglimento della “commissione di vigilanza” è avvenuto nello stesso momento in cui OpenAI ha annunciato l’arrivo di ChatGPT4o, un nuovo modello di intelligenza artificiale che ha la capacità di interpretare le espressioni facciali e le emozioni umane, dotato anche dell’abilità di rispondere parlando con un linguaggio naturale variando i toni.

Dal 2022, anno in cui è stato creato il software di ChatGPT, non sono mancate le polemiche sulla sicurezza dei sistemi di intelligenza artificiale. La più recente controversia coinvolge l’attrice Scarlett Johansson che ha accusato l’azienda di aver realizzato una voce troppo simile alla sua nel film “Her” del 2013 negandone l’utilizzo. Il CEO Sam Altman ha replicato pochi giorni fa alle accuse dell’attrice durante un evento Microsoft, società che finanzia OpenAI, insistendo sul fatto che la ditta svolge una grande quantità di lavoro per garantire che i suoi modelli siano affidabili soprattutto in termini di integrità.

Sono innegabili i vantaggi che l’AI può apportare in vari campi: assistenza sanitaria, informazione, sistemi di trasporto, servizi pubblici. L’intelligenza artificiale può permettere la creazione di una nuova generazione di prodotti e servizi. Con il progredire di tali tecnologie, però, si è a lungo discusso delle conseguenze negative che potrebbe comportare abusarne. In particolar modo, gli effetti più temuti sono quelli relativi alla privacy e al trattamento dei dati personali.

«L’intelligenza artificiale è come la bomba atomica, come le armi. Dipende da come la si usa. Io per esempio la uso moltissimo perché mi piace, sono una fan». Alessandra Spada, co-founder e CEO di Catchy, una startup di prodotti di AI, ha espresso così la sua opinione: «Io non credo che tecnologie del genere abbiano bisogno di restrizioni, credo che abbiano bisogno di monitoraggio. Bisogna sapere esattamente come vanno le cose, come si stanno usando e qual è l’impatto». Sul team di Superallineamento di OpenAI ha poi aggiunto che questo tipo di “commissioni” sono frequenti nelle aziende e che sono «utili dal punto di vista di quello che sarà la value proposition, ma è chiaro che quando si entra nel mondo di applicazioni che riguardano l’etica, questo tipo di team riveste dei ruoli che sono molto complessi e difficilmente ho visto che poi riescono a dare raccomandazioni che siano ostative».

Leggi anche: I nuovi scenari geopolitici creati dall’intelligenza artificiale