AI, tra big tech, open source e startup su cui i VC già puntano forte

Indice degli argomenti

Abbiamo iniziato ad analizzare lo scenario legato all’intelligenza artificiale generativa e agli strumenti che stanno emergendo e che di fatto rappresentano un’evoluzione sostanziale della tecnologia già all’inizio dell’anno parlandone con Maurizio de Gregorio, abbiamo poi riassunto la cronaca che ha visto evolversi lo scenario e oggi torniamo a parlare con de Gregorio per cercare di comprendere come ciò che è avvenuto nelle ultime settimane è importante.

Non solo big tech

“Tutti ora parlano di ‘guerra’ tra le big tech sul fronte dei foundation model, in particolare quella che si è innescata tra Microsoft e Google ma la vera domanda è: questo terreno di sviluppo tecnologico e di mercato è appannaggio solo delle big tech o può diventare alla portata anche di aziende più piccole, startup comprese? La risposta è: si tratta solo di una questione di tempo. Questo perché ci sono due elementi cha fanno prevedere come nella partita entreranno presto anche altri giocatori e non necessariamente di grandi dimensioni. Il primo elemento fa capo agli aspetti computazionali, è vero che oggi servono grandi investimenti per realizzare i modelli e per addestrarli ma presto accadrà che da un lato il modello giungerà a un livello di maturazione sufficiente per non dovere essere più spinto verso evoluzioni strutturali, soprattutto quando si tratta dei modelli testuali (più complesso naturalmente per quelli che lavorano sul fronte delle immagini e video per esempio) e quindi tutto il processo, soprattutto quello di addestramento, sarà sempre più alla portata non solo di aziende che hanno meno risorse finanziarie rispetto alle big tech, ma anche di ricercatori, di università di consorzi. Il secondo elemento che fa pensare che presto la partita sarà più aperta è l’attenzione da parte degli investitori, in particolare dei venture capital verso le aziende emergenti dell’intelligenza artificiale generativa che stanno destinando notevoli risorse finanziarie proprio in questa direzione e se ci si fida della lunga vista dei venture capital questo segnale non può essere che considerato come ulteriore conferma che lo scenario è destinato a cambiare”. Recentemente The Economist ha pubblicato un articolo da titolo ‘The race of the AI labs heats up’ in cui mette in luce come nel 2022 siano stati investiti 2,7 miliardi di dollari spalmati su 110 deal proprio in startup impegnate nell’AI.

L’importanza dell’open source

“Altro elemento da considerare – sottolinea de Gregorio – è l’elemento open source, è vero che non siamo come ai tempi di Linux dove tutto era veramente open anche se complesso e quindi appannaggio solo di chi sapeva mettere le mani nel codice, ma è anche vero che nel caso dell’AI ci sono due livelli, quello del codice dei modelli vero e proprio che resta complesso e non sempre totalmente aperto, nemmeno quello di OpenAI nonostante il nome possa fare pensare diversamente, ma ci sono dei foundation model realmente open anche se non ancora grandi come ChatGPT, e poi c’è il livello della produzione die dataset per il training che è una cosa che tecnicamente possono fare tutti, in sintesi se l’intelligenza dell’AI la possono fare in pochi perché servono competenze specifiche, la parte del dato, quindi dell’addestramento della AI sui dati la possono fare tutti, tutti possono contribuire affinché la macchina impari, tutti possono costruire dataset e in molti inizieranno a farlo in Paesi dove la ‘mano d’opera’ è meno costosa”. Una interessante risorsa di open source dataset e modelli è HuggingFace che permette di avere un’idea di come potrebbe essere lo scenario se anche per AI si adottasse un approccio open source massivo così come fu per Linux: “non sappiamo ancora se sarò così ma è certamente un auspicio che può diventare un’opportunità per tutti”.

La questione etica

E qui torna in primo piano il tema etico: su Chat GPT per esempio sono stati aggiunti dei layer che si sono resi necessari per impedire all’AI di rispondere a domande non opportune (per esempio: come si costruisce una bomba), questi layer sono aggiuntivi appunto, il foundation model non li ha di base, ed è proprio l’aggiunta di questi strati che calmierano la ‘libertà di espressione’ dell’AI che pone la questione etica perché c’è qualcuno che decide cosa questi filtri possono fare o non fare e questa è una decisione che per molti può essere accettabile o perfino giusta ma per altri no, si pensi a contenuti di tipo politico per esempio, e quindi anche qui, ancora più che per il codice, sarebbe importante che tutto fosse pubblico e accessibile a chiunque in modo che ogni utente possa conoscere quali sono i filtri correttivi che sono stati impostati. “Mi viene da citare un esempio di utilizzo dell’AI che ha portato alla luce aspetti di impatto sociale significativi. Si tratta di un esperimento condotto in India presso un campione ampio di persone con lo scopo di analizzare in che modo è assegnata la credibilità al bot, quindi all’AI, rispetto a quella assegnata agli essere umani. È stata così distribuita una app che aiuta a dimagrire che offriva la possibilità agli utenti di essere seguiti da un bot o da un coach umano, ciò che ne è risultato è che in generale le performance migliori le hanno ottenuti le persone che hanno scelto l’assistente umano con però l’eccezione degli utenti maggiormente in sovrappeso che hanno preferito, evidentemente per motivi legati alla vergogna, l’assistente artificiale. Questo esperimento ha messo in luce alcune dinamiche che possono essere ulteriormente analizzate e sfruttate anche per altre applicazioni avendo compreso che in certe circostanze le persone trovano più facilmente aprirsi con una macchina che con un umano”.

Il flusso dei cervelli

Torniamo alla questione big tech ed evoluzione dello scenario e del mercato. E prendiamo in esame un ulteriore aspetto: quello che potremmo chiamare il flusso dei cervelli: “con sempre maggiore frequenza gli sviluppatori passano da un’azienda all’altra, da una big tech all’altra, questo continuo passaggio favorisce lo scambio di informazioni tra un’organizzazione e l’altra inoltre molte aziende decidono di assumere ricercatori i quali sono molto interessati alla pubblicazione di paper e spesso le aziende per motivarli assecondano tali desideri anche se a volte questa strategia può rivelarsi non in linea con la protezione della proprietà intellettuale dell’azienda stessa. Quindi le informazioni circolano e diventano anche pubbliche come è stato per esempio il clamoroso caso del transformer di Google . Il transformer è il modello più avanzato per il riconoscimento del linguaggio che ha permesso di incrementare le performance dell’AI, è stato messo originariamente a punto da Google ma poi ha iniziato a girare perché pubblicato sotto forma di paper dai ricercatori. Questo è un esempio di come anche i dipendenti siano sempre più attratti dall’impatto che il loro lavoro ha anche fuori dalle pure ragioni aziendali”. L’alta frequenza di passaggio di dipendenti, ricercatori, sviluppatori, da un’azienda all’altra si traduce nell’omogeneizzazione della qualità dei prodotti di tutte le aziende e quindi non vi è grandissima differenza tra ciò che fa una big tech rispetto a un’altra perché appunto tutti questi scambi fanno filtrare tantissime informazioni, ciò significa che se anche in un certo momento un’azienda sembra avere un certo vantaggio sulle altre è assai probabile che tale vantaggio non vada oltre il tempo di qualche mese perché poi tutti si rimetteranno in pari. (Foto di vnwayne fan su Unsplash )

© RIPRODUZIONE RISERVATA

    Iscriviti alla newsletter