Ormai è acclarato: il tema dell’Intelligenza Artificiale è il tormento del 2023
Questa settimana un gruppo di noti e rispettabili ricercatori di intelligenza artificiale ha firmato una dichiarazione composta da 22 parole:
Mitigare il rischio di estinzione dell’IA dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare.
In qualità di professore di intelligenza artificiale, sono anche favorevole alla riduzione di qualsiasi rischio e pronto a lavorarci personalmente. Ma qualsiasi affermazione formulata in questo modo è destinata a creare allarme, quindi i suoi autori dovrebbero probabilmente essere più specifici e chiarire le loro preoccupazioni.
Come definito dall’Enciclopedia Britannica, l’estinzione è ” l’estinzione o lo sterminio di una specie “. Ho incontrato molti dei firmatari della dichiarazione, che sono tra gli scienziati più rispettabili e solidi nel campo – e hanno sicuramente buone intenzioni. Tuttavia, hanno dato
noinessuno scenario tangibile di come potrebbe verificarsi un evento così estremo.
Non è la prima volta che ci troviamo in questa posizione. Il 22 marzo di quest’anno, una petizione firmata da un diverso gruppo di imprenditori e ricercatori ha richiesto una pausa di sei mesi nell’implementazione dell’IA . Nella petizione, sul sito web del Future of Life Institute, hanno esposto come ragionamento: “Rischi profondi per la società e l’umanità, come dimostrato da ricerche approfondite e riconosciuto dai migliori laboratori di intelligenza artificiale” – e hanno accompagnato la loro richiesta con un elenco di domande retoriche:
Dovremmo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli soddisfacenti? Dovremmo sviluppare menti non umane che alla fine potrebbero essere più numerose, superate in astuzia, obsolete e sostituirci? Dovremmo rischiare di perdere il controllo della nostra civiltà?
Un generico senso di allarme
È certamente vero che, insieme a molti vantaggi, questa tecnologia comporta dei rischi che dobbiamo prendere sul serio. Ma nessuno degli scenari sopra menzionati sembra delineare un percorso specifico verso l’estinzione. Ciò significa che ci rimane un generico senso di allarme, senza alcuna possibile azione da intraprendere.
Il sito web del Center for AI Safety , dove è apparsa l’ultima dichiarazione, delinea in una sezione separata otto grandi categorie di rischio . Questi includono l ‘”armamento” dell’IA, il suo uso per manipolare il sistema di notizie, la possibilità che gli esseri umani alla fine diventino incapaci di autogovernarsi, l’agevolazione di regimi oppressivi e così via.
Fatta eccezione per l’armamento, non è chiaro come gli altri – ancora terribili – rischi possano portare all’estinzione della nostra specie, e l’onere di spiegarlo spetta a coloro che lo affermano.
L’uso di armi è una vera preoccupazione, ovviamente, ma anche ciò che si intende con questo dovrebbe essere chiarito. Sul suo sito web, la principale preoccupazione del Center for AI Safety sembra essere l’uso di sistemi di intelligenza artificiale per progettare armi chimiche. Ciò dovrebbe essere evitato a tutti i costi, ma le armi chimiche sono già vietate. L’estinzione è un evento molto specifico che richiede spiegazioni molto specifiche.
Il 16 maggio, durante la sua audizione al Senato degli Stati Uniti , a Sam Altman, CEO di OpenAI, che ha sviluppato il chatbot ChatGPT AI, è stato chiesto due volte di spiegare il suo scenario peggiore. Alla fine ha risposto:
Le mie peggiori paure sono che noi – il campo, la tecnologia, l’industria – causiamo danni significativi al mondo… È per questo che abbiamo avviato l’azienda [per scongiurare quel futuro]… Penso che se questa tecnologia va male, può andare molto male.
Ma mentre sono fermamente a favore di essere il più attenti possibile, e lo dico pubblicamente da dieci anni, è importante mantenere il senso delle proporzioni, in particolare quando si discute dell’estinzione di una specie di otto miliardi di persone individui.
L’intelligenza artificiale può creare problemi sociali che devono essere davvero evitati. Come scienziati, abbiamo il dovere di capirli e poi fare del nostro meglio per risolverli. Ma il primo passo è nominarli e descriverli, ed essere specifici.
Nello Cristianini è l’autore di “The Shortcut: Why Intelligent Machines Do Not Think Like Us”, pubblicato da CRC Press, 2023.
Articolo ripubblicato da The Conversation, sotto una licenza Creative Commons, per leggere l’articolo originale clicca qui.