Intelligenza artificiale: come le macchine imparano a comprenderci

I computer non sono (ancora) umani ma sanno parlarci, riconoscere immagini, ascoltare l'ambiente circostante. E presto sapranno guidarci nella scelta delle ricette migliori. Ecco come gli algoritmi sono sempre di più parte del nostro mondo

C’è Sophia, la donna-robot in grado conversare in modo naturale, sorridere e perfino rifiutare con eleganza un bacio dall’attore Will Smith, quando ha provato a sedurla. O gli inquietanti automi della Boston Dynamics che saltano, corrono e tra qualche decennio (forse) verranno usati in guerra. Due facce dello stesso futuro, con un tratto comune: interagiremo sempre più spesso con esseri non umani. Ma l’intelligenza artificiale non è solo questo. Tra software, gadget e servizi online lanciati negli ultimi due anni, la stragrande maggioranza utilizza almeno un’opzione basata su questa tecnologia. È insomma, uno dei trend i cui le grandi aziende (di qualunque settore) stanno investendo di più. E l’attenzione continua a crescere. Lo dimostra il risultato del nostro sondaggio, dal quale è emerso che, oltre il 40% di voi, ritiene che l’intelligenza artificiale sarà “la prossima frontiera tecnologica che cambierà l’esistenza”. E lo farà in molti modi. L’obiettivo dell’intelligenza artificiale è l’imitazione delle capacità cognitive umane. C’è chi pensa che, quando verrà raggiunto il massimo livello di fedeltà, si arriverà alla “singolarità tecnologica”: di qui in poi le macchine avranno sviluppato una propria coscienza. Per ora sono speculazioni: è un traguardo molto lontano (e forse irraggiungibile). I progressi fatti in questo campo hanno portato i computer a comprendere e interagire con il mondo in modo autonomo. A percepire il contesto e a interpretarlo, senza il nostro aiuto. Si può dire che, le varie diramazioni dell’intelligenza artificiale hanno creato una declinazione al silicio dei i cinque sensi. Vediamo come.

Vista. Uno degli esempi più calzanti riguarda le auto a guida autonoma. Riconoscono le strade, identificano gli ostacoli, vedono un oggetto che sfreccia ad alta velocità e capiscono che si tratta di una moto con a bordo un uomo con un casco. Tutto ciò è possibile grazie alla computer vision. E ci riguarda da vicino. Grazie a questa branca dell’intelligenza artificiale, telefoni come il Huawei P10 che, dopo una foto, scelgono i parametri ideali di esposizione e bilanciamento dei colori. La capacità di riconoscere immagini da parte delle macchine è davvero molto alta: con la computer vision, la camera frontale dell’iPhone X legge il nostro volto e sblocca il telefono. E se proviamo a usare una foto anziché un viso reale, non si lascia ingannare. Sviluppare organi in grado di identificare forme, colori e profondità ha richiesto milioni di anni di evoluzione. Alla tecnologia è bastato qualche decennio. Ma attribuire agli oggetti un significato è un altro terreno di gioco. Qui le macchine non sono ancora perfette. Per mettere in crisi le capacità di interpretazione della computer vision possiamo usare Captionbot AI, e vedere come, di fronte a qualcosa di inaspettato, spesso anche un algoritmo molto sofisticato va del tutto fuori strada.

Udito. La tecnologia che permette di comprendere i suoni si chiama natural language processing. I progressi nel riconoscimento delle parole sono sorprendenti: oggi la precisione di assistenti virtuali come Siri di Apple supera il 90%. All’inizio del Duemila, l’accuratezza del riconoscimento vocale non superava il 10%. Oggi le parole vengono comprese dai software anche se parliamo lontano dal microfono o se ci sono rumori ambientali. Ma non va altrettanto bene nell’interpretazione dove, la complessità del linguaggio umano non è del tutto alla portata delle macchine: se dialogassimo con Siri come se fosse un umano, sarebbero davvero poche le richieste esaudite. Questa senz’altro è una delle prossime sfide nello sviluppo dell’intelligenza artificiale. Ed è stata raccolta da Google. Nel maggio 2018 ha presentato Duplex, una specie di software-maggiordomo che, durante una demo, ha prenotato – a voce – un taglio di capelli. Nella dimostrazione ha funzionato. Per ora, però, si tratta di una sperimentazione non ancora in commercio.

Gusto. Ai ricercatori che si occupano di intelligenza artificiale piacciono le sfide. E così, nel 2017, Watson di IBM, una delle macchine più sofisticate disponibili, ha vestito i panni del cuoco. È stato utilizzato per creare nuove ricette dagli accostamenti inaspettati. Ricostruendone gli effetti sul palato umano. I piatti suggeriti sono disponibili a questo indirizzo e sembra siano stati apprezzati.

Tatto. Questo senso artificiale ci porta in un futuro non troppo lontano. All’inizio del 2018 un team dell’Istituto Superiore Sant’Anna di Pisa ha sviluppato un arto bionico in grado di leggere informazioni sulla durezza di un oggetto. I dati, interpretati da una macchina, vengono trasmessi direttamente al cervello umano. Per ora è un prototipo, testato su una donna che ha perso una mano dopo un incidente. Sentire la consistenza è fondamentale per le operazioni comuni, come allacciarsi le scarpe o impugnare del cibo. È un progresso importante in questo campo e l’invenzione italiana ha avuto eco internazionale.

Olfatto. Anche in questo caso, l’innovazione è in campo medico. L’Università di Loughborough sta testando una macchina in grado di riconoscere l’odore di una persona e capire se è affetta da qualche patologia. La ricerca è ancora alle sue prime fasi. Secondo l’MIT, la riproduzione fedele dell’olfatto rimarrà ancora per molto fuori dalla portata delle macchine. Forse sarà questo l’ultimo scoglio da superare prima che i computer imparino a vivere esperienze del tutto simili a quelle umane.

E voi? In quali contesti vi fidate di una macchina? E quali decisioni invece non affidereste mai a un computer?