AI generativa, serve un nuovo CERN

Indice degli argomenti

Serve un CERN per gestire l’intelligenza artificiale generativa. È questa la tesi di Ian Hogarth che oltre a essere investitore di oltre 50 startup che operano nell’ambito dell’AI e co-autore del report annuale ‘State of AI’, ha scritto un approfondimento per il Financial Times dal titolo piuttosto indicativo: ‘We must slow down the race to God-like AI’ che in italiano suona come qualcosa di simile a ‘dobbiamo rallentare la corsa all’intelligenza artificiale divina’. L’articolo è un vero e proprio approfondimento sullo scenario dell’AI generativa e di ciò che sta accadendo attorno a essa, a partire dalla controversa lettera dei ‘guru’ della Silicon Valley che hanno chiesto di sospendere le attività di sviluppo per sei mesi, lettera che ha avuto reazioni contrastanti e che ha prodotto nessuna effettiva reazione da parte di chi sta lavorando allo sviluppo di modelli di AI generativa. E la cosa, secondo quanto scrive Hogarth, potrebbe presto rivelarsi preoccupante.

Crescita autonoma e AI alignment

Ci sono due elementi sui quali secondo l’autore è opportuno riflettere: la natura tecnica di questa tecnologia e il cosiddetto AI alignment. Nel primo caso va tenuto presente che diversamente da quanto avvenuto fino a oggi con qualsiasi altra applicazione software che è esclusivamente programmata dall’uomo, nel caso della AI generativa si ha una tecnologia che è si inizialmente programmata nell’algoritmo e nell’addestramento ma poi cresce in autonomia, impara, si sviluppa, si evolve e non sappiamo come, non sappiamo come evolverà a quali livelli di capacità arriverà, ciò che sappiamo ora è che per alcune applicazioni o risposte è ancora a livello inferiore rispetto alle capacità umane e qui entra in gioco la capacità dell’intelligenza umana di interrogare quella artificiale, il cosiddetto prompt engineering o prompting, al fine di ridurre le incertezze, che in gergo si chiamano allucinazioni, dell’AI; per altre applicazioni è già pari alle capacità umane, si veda per esempio la capacità di GPT 4 di superare con voti alti gli esami universitari e poi c’è la possibilità che acquisisca anche capacità superiori a quelle umane, da qui il concetto di God-like AI, e l’esempio che l’autore porta è la capacità dell’AI di riuscire a superare di gran lunga le capacità dei più grandi campioni di scacchi o del gioco Go che ormai sono, di fatto, superiori a quelle di qualsiasi essere umano. E qui Hogarth ricorda che siccome non sappiamo ancora come funziona la mente umana sarà molto difficile comprendere come la intelligenza artificiale si evolverà e soprattutto quali parametri utilizzare, al netto dei risultati, per effettuare confronti. L’AI aligment è invece l’insieme di azioni che gli sviluppatori delle intelligenze artificiali generative apportano al fine di rendere i sistemi compatibili, allineati, con il contesto umano. È quell’elemento che serve per mantenere un certo livello di sicurezza e di etica, è quell’elemento che impedisce all’utente dell’AI generativa di ottenere risposte esaustive a domande come: cosa serve per costruire un ordigno, come si produce un virus letale, o come è possibile togliersi la vita senza soffrire o senza che appaia come un suicidio. E qui si fa presente che oggi OpenAI dedica solo il 7% delle sue risorse per gli aspetti legati all’AI alignment continuando quindi a destinare la gran parte delle sue capacità a sviluppare lo strumento, a renderlo sempre più potente, rapido, preciso. In questo aspetto un ruolo potrebbero giocarlo gli investitori i quali potrebbero per esempio scegliere di sostenere finanziariamente solo le aziende che dedicano all’AI alignment una quantità di risorse più elevata, tra il 40 e il 50% per esempio, ma servirebbe una scelta di campo, una presa di posizione collettiva perché altrimenti è difficile pensare di non investire in quelle aziende che corrono più veloci sul fronte dello sviluppo tecnologico.

Il modello CERN

Ecco che la sintesi di queste riflessioni sfocia in quello che l’autore chiama il modello a isola, ove l’isola è il territorio in cui tutto è possibile, ove si fa la ricerca più avanzata, ove si possono sperimentare gli effetti e le conseguenze e solo quando ciò che è stato sviluppato nell’isola diventa sicuro per essere applicato su larga scala esso può uscire dall’isola-laboratorio. Un modello molti simile da quello adottato appunto con il CERN di Ginevra, il laboratorio globale a cui partecipano governi, istituzioni, ricercatori, scienziati di tutto il mondo e che ha il compito di esplorare la fisica più avanzata, quella di frontiera, un laboratorio dal quale poi possono anche uscire innovazioni fondamentali (il world wide web è nato lì) e che è deputato a fare ricerca avanzatissima, proprio quella di cui gli effetti sono sconosciuti. Lo stesso principio quindi dovrebbe essere applicato alla AI generativa, serve in CERN gestito a livello intergovernativo e interistituzionale, al quale fare accedere tutti i migliori ricercatori sul campo, al quale affidare il compito di spingere sempre più avanti le potenzialità della tecnologia ma anche quello di imparare a gestirla e renderla uno strumento effettivamente strabiliante capace di portare vantaggi, oggi perfino inimmaginabili, a tutto il genere umano. Ian Hogarth non è una voce solitaria, in questi giorni sono usciti anche altri articoli che pongono, da diversi punti di vista, la questione e accendono i riflettori sulla portata e le conseguenze possibili dell’AI generativa. Cal Newport sul New Yorker si è preso la briga di cercare di approfondire i meccanismi operativi dell’AI generativa ponendosi la domanda relativa a che tipo di intelligenza si sta formando , cosa effettivamente c’è ‘sotto il cofano’ di ChatGPT e delle intelligenze artificiali generative e tra l’altro riprende un ulteriore approfondimento intitolato ‘You Can Have the Blue Pill or the Red Pill, and We’re Out of Blue Pills’ (i riferimenti a Matrix non mancano quando si tratta di questo tema), scritto da Yuval Noah Harari (autore di Sapiens, Homo Deus e 21 Lessons for the 21st Century), Tristan Harris, and Aza Raskin e pubblicato dal New York Times in cui per esempio si dice che dell’AI generativa non ne sappiamo molto, tranne che è estremamente potente e ci offre doni sbalorditivi, ma potrebbe anche intaccare le fondamenta della nostra civiltà. Sul tema della potenziale rischio di comprendere sempre meno come funzionano le tecnologie che sono si da noi create ma che evolvono in modo sconosciuto anche l’approfondimento di Quanta Magazine dal titolo ‘A New Approach to Computation Reimagines Artificial Intelligence’. (Foto di Ben Wicks su Unsplash )

© RIPRODUZIONE RISERVATA

    Iscriviti alla newsletter