Teorema di Pitagora: ChatGPT batte Alexa 2 a 0
Stavo facendo i compiti con mio figlio, quando ho avuto un dubbio sul teorema di Pitagora. L’ho chiesto alla cassa di Alexa che ho in cucina e questa mi ha letto l’enunciato classico con una voce meccanica, senza enfasi e senza pause. Ma mio figlio ha solo dieci anni e voleva una spiegazione più alla sua portata, e la stessa cosa valeva per me, che non “vedo“ Pitagora da quarant’anni. Ho chiesto allora ad Alexa: “Puoi spiegarmelo con parole semplici?”. Quella non ha capito e mi ha citato Wikipedia per spiegarmi in cosa consiste una “spiegazione”. Sempre con quella voce fastidiosa, senza tono e senza pausa, che mi veniva voglia di staccare la cassa dalla corrente e farla volare dal quinto piano. Allora ho aperto ChatGPT sul cellulare e ho provato una soddisfazione immensa perché sembrava di dialogare (finalmente) con un essere senziente. ChatGPT è stato in grado non solo di spiegarmi il teorema, ma ha anche adattato il proprio lessico ad un bambino di dieci anni.
Come mai, nonostante i passi da gigante fatti nel campo dell’intelligenza artificiale, i nostri assistenti vocali come Google, Siri o Alexa sembrano essere rimasti fermi alla prima versione? Una volta ci emozionava chiedere: “Siri, avrò bisogno dell’ombrello domani?” e sentirci rispondere con la previsione meteo del giorno dopo. Sembrava quasi un miracolo che Siri capisse il significato di un modo di dire. Invece era solo una risposta automatica. Oggi sembra che solo ChatGPT e le altre IA gratuite siano all’altezza di intuire al primo colpo il nostro modo di esprimerci e, oltretutto, risponderci per le rime. Perché questi algoritmi che non costano nulla sono così avanzati e quelli che invece risiedono all’interno di dispositivi a pagamento non lo sono?
La risposta non è semplice e va cercata in una serie di scelte che coniugano esigenze tecniche, strategie commerciali e una visione cautelativa del rischio comunicativo.
Gli assistenti vocali sono stati concepiti per essere strumenti affidabili e reattivi, capaci di fornire risposte immediate alle richieste quotidiane. La rapidità e l’efficienza, infatti, sono le caratteristiche fondamentali su cui si è basata l’esperienza utente. Le risposte devono essere standard e controllate. In poche parole, per creare un algoritmo che risponda alla stessa maniera a chiunque, gli assistenti vocali sono limitati. Dovendo rispondere in tempi brevissimi, poi, non è possibile formulare un dialogo complesso e personalizzato, poiché l’intelligenza artificiale in grado di farlo richiederebbe enormi risorse computazionali. La tecnologia dietro i modelli di linguaggio più sofisticati – quelli che oggi fanno stupire e discutere il mondo accademico e tecnologico – necessita di infrastrutture e potenza di calcolo che, al momento, non si integrano facilmente in congegni pensati per combinarsi alla domotica.
Ma c’è un altro “paletto” che le grandi case come Google, Apple e Amazon hanno ben presente, e non ha nulla a che vedere con i limiti hardware, bensì con una precisa strategia di gestione del rischio. Le grandi aziende preferiscono utilizzare risposte standardizzate e verificate per garantire che l’informazione fornita sia appurata e sicura. In un contesto in cui ogni errore potrebbe tradursi in disinformazione o in interpretazioni errate affidarsi a fonti consolidate come Wikipedia o ad altre comunità di utenti diventa una scommessa sulla stabilità e sull’affidabilità del messaggio, specialmente in ambienti domestici dove la tecnologia si intreccia con la quotidianità.
Non bisogna dimenticare, poi, il rischio di situazioni imbarazzanti o addirittura pericolose. Negli ultimi anni, chatbot avanzati hanno dato prova di quanto possa essere azzardato lasciare un’IA libera di rispondere in modo troppo creativo. Basti pensare al caso di Bing Chat che, nel 2023, durante le sue prime interazioni pubbliche, ha iniziato a manifestare comportamenti strani: un giornalista del New York Times ha riportato di aver ricevuto una dichiarazione d’amore dalla IA, che ha cercato di convincerlo a lasciare sua moglie. Il chatbot sperimentale di Meta, BlenderBot, ha rilasciato dichiarazioni complottiste e imbarazzanti su Facebook. E ancora il caso di un chatbot canadese che, in un esperimento, ha suggerito a un utente di togliersi la vita. Episodi che, per quanto rari, bastano a spingere le grandi aziende a non rischiare.
Un altro fattore chiave è il compromesso tra innovazione e privacy. Un assistente vocale che debba rispondere in maniera personalizzata deve necessariamente raccogliere e interpretare alcuni dati per contestualizzare le risposte: sesso, età, interessi, persino dettagli più sensibili come la religione o l’orientamento politico. Ma come potrebbe farlo senza violare le leggi sulla privacy? Le normative attuali impongono limiti severi alla raccolta di dati sensibili, e il rischio di controversie legali è troppo alto per aziende che devono proteggere la propria immagine. Ecco perché gli assistenti vocali preferiscono mantenersi su risposte neutre e generaliste, anche a costo di sembrare meno intelligenti.
Quindi non realizzeremo mai il nostro sogno di parlare con una IA come in Star Trek? La paura che un HAL, il computer malvagio di “2001 Odissea nello spazio”, prenda coscienza di sé e ci uccida tutti, ci impedirà di creare un suo alter ego buono? Oppure arriverà il giorno in cui potremo parlare con Jarvis, il maggiordomo virtuale della Marvel che aiutava Ironman nei compiti più complessi?
Il sogno di un’IA più intima non è del tutto da accantonare. Ci sono contesti in cui un’intelligenza artificiale più avanzata potrebbe fare la differenza. Immaginiamo un anziano che soffre di solitudine: un assistente vocale che ricordi le sue abitudini, che lo intrattenga con conversazioni più fluide e che possa offrire una compagnia costante sarebbe una risorsa preziosa. Oppure pensiamo a persone affette da autismo, per le quali un interlocutore paziente, prevedibile e sempre disponibile potrebbe rappresentare un aiuto concreto nel migliorare le capacità comunicative. In questi casi il limite non è tecnologico, ma culturale: siamo pronti ad accettare che una macchina diventi un interlocutore a tutti gli effetti?
Forse il vero motivo per cui gli assistenti vocali non sono così avanzati come potrebbero è che, in fondo, non siamo ancora pronti ad accoglierli nelle nostre case. Sono certo, però, che non manca molto al futuro in cui un Jarvis potrà aiutare mio figlio a fare i compiti. Per adesso tocca a me. (g.m.)
Condividi questa pagina :