Washington, 24 mag. (Adnkronos) – I fondatori di ChatGPT OpenAI hanno chiesto la regolamentazione dei sistemi avanzati di intelligenza artificiale, sostenendo che è necessario un equivalente dell’Agenzia internazionale per l’energia atomica per proteggere l’umanità dal rischio di creare accidentalmente qualcosa che possa avere il potere di distruggerla. In una breve nota pubblicata sul sito Web dell’azienda, i co-fondatori Greg Brockman e Ilya Sutskever e l’amministratore delegato, Sam Altman, chiedono a un regolatore internazionale di iniziare a lavorare su come “ispezionare i sistemi, richiedere audit, testare la conformità agli standard di sicurezza e imporre restrizioni sui livelli di distribuzione e di sicurezza”, al fine di ridurre il “rischio per l’esistenza” dell’umanità che tali sistemi potrebbero rappresentare.
“è concepibile che entro i prossimi 10 anni, i sistemi di intelligenza artificiale supereranno il livello degli esperti nella maggior parte dei loro competenze e svolgeranno la stessa attività produttiva di una delle più grandi aziende di oggi”, scrivono. ‘In termini di potenziali vantaggi e svantaggi, la superintelligenza sarà più potente di altre tecnologie con cui l’umanità ha dovuto confrontarsi in passato. Possiamo avere un futuro drammaticamente più prospero; ma dobbiamo gestire il rischio per arrivarci”.
A breve termine, i tre responsabili di OpenAi chiedono “un certo grado di coordinamento” tra le aziende che lavorano all’avanguardia della ricerca sull’IA, al fine di garantire che lo sviluppo di modelli sempre più potenti si integri senza problemi con la società, dando priorità alla sicurezza. Tale coordinamento potrebbe avvenire attraverso un progetto guidato dal governo, ad esempio, o attraverso un contratto collettivo per limitare la crescita della capacità di intelligenza artificiale.
I ricercatori hanno avvertito per decenni dei potenziali rischi della superintelligenza, ma con l’accelerazione dello sviluppo dell’IA, tali rischi sono diventati più concreti. Il Center for AI Safety (CAIS), con sede negli Stati Uniti, che lavora per “ridurre i rischi su scala sociale derivanti dall’intelligenza artificiale”, descrive otto categorie di rischio “catastrofico” ed “esistenziale” che lo sviluppo dell’IA potrebbe comportare.
Mentre alcuni temono che una potente IA distrugga completamente l’umanità, accidentalmente o di proposito, CAIS descrive altri danni più pericolosi. Un mondo in cui ai sistemi di intelligenza artificiale viene consegnato volontariamente sempre più lavoro potrebbe portare l’umanità a “perdere la capacità di autogovernarsi e diventare completamente dipendente dalle macchine”, descritto come “indebolimento”; e un piccolo gruppo di persone che controllano sistemi potenti potrebbe “rendere l’IA una forza centralizzante”, portando a un “blocco del valore”, un eterno sistema di caste tra governati e governanti.
Innovazione: fondatori ChatGpt, ‘per intelligenza artificiale necessaria agenzia come per nucleare’
