Non solo MUM: nel corso di Google I/O la scena è stata dominata dalle applicazioni del futuro prossimo rese possibili dallo sviluppo di sistemi di intelligenza artificiale, che è diventata una parte integrante del lavoro che sta portando avanti l’azienda di Mountain View. I progressi fondamentali nell’informatica stanno aiutando ad affrontare alcune delle più importanti sfide del secolo, come il cambiamento climatico, mentre l’AI trova applicazione negli aggiornamenti dei prodotti dell’ecosistema Big G, tra cui Ricerca, Mappe e Foto, dimostrando come l’apprendimento automatico può migliorare la vita degli utenti in grandi e piccoli modi.
Undici ambiti di utilizzo di AI nei prodotti Google
In particolare, ci sono 11 nuovi aggiornamenti basati sull’intelligenza artificiale annunciati all’evento della scorsa settimana, che presto potremo vedere e usare nella nostra quotidianità. Una panoramica su queste applicazioni innovative arriva da un post riassuntivo scritto da Christine Robson, Director of Product di Google Research: da MUM, che potrebbe cambiare il modo in cui il motore di ricerca comprende le query, fino ad arrivare a Maps e allo Shopping, passando per futuristiche soluzioni che consentiranno di avere prime diagnosi di salute attraverso lo smartphone.
LaMDA, una svolta nella comprensione del linguaggio naturale per il dialogo
Il primo sistema presentato è LaMDA – abbreviazione di “Language Model for Dialogue Applications”, definito come un modello di machine learning progettato per il dialogo e costruito su Transformer”, ovvero l’architettura di rete neurale che Google ha inventato e reso open source, utilizzata già per Google BERT.
LaMDA è una funzionalità di ricerca vocale e dialogo e può essere addestrato a leggere termini, comprendere la relazione tra le parole in una frase e prevedere quale parola potrebbe venire dopo. Rispetto ai sistemi precedenti, è addestrato per produrre risposte ragionevoli e specifiche e non semplicemente generiche. Nella presentazione del CEO Pichai è stato mostrato un esempio del suo funzionamento, che ha dimostrato un’efficienza maggiore rispetto a quella attuale dell’Assistente Google, con risposte dalle sfumature complesse e, in alcuni casi, persino spiritose.
Secondo Google, “questa ricerca nelle prime fasi potrebbe sbloccare modi più naturali di interagire con la tecnologia e categorie completamente nuove di applicazioni utili”, che si avvicinano alla complessità delle conversazioni umane che sono “radicate in concetti che abbiamo imparato durante la nostra vita, composte da risposte che sono sia sensate che specifiche”.
MUM contribuirà a rendere la Ricerca Google molto più intelligente
L’articolo ricorda che già nel 2019 l’azienda aveva lanciato BERT, un modello Transformer AI in grado di comprendere meglio l’intento dietro le query di ricerca, rispetto a cui il Multitask Unified Model (MUM) è 1000 volte più potente.
Per ora, “siamo ancora agli inizi dell’esplorazione di MUM” e non c’è ancora una data possibile di lancio nella Ricerca – ma, stando alle parole di Danny Sullivan, ci saranno annunci e informazioni specifici al momento opportuno; l’obiettivo è che un giorno saremo in grado “di digitare una query lunga, densa di informazioni e dal suono naturale, e trovare più rapidamente le informazioni pertinenti” di cui abbiamo bisogno.
Project Starline riconnette le persone
Si entra nel campo delle applicazioni fantascientifiche con Project Starline, un progetto tecnologico che combina i progressi dell’hardware e del software per consentire ad amici, familiari e colleghi di sentirsi insieme, anche quando sono città (o Paesi) diversi.
“Immagina di guardare attraverso una sorta di finestra magica; attraverso quella finestra, vedi un’altra persona, a grandezza naturale e in tre dimensioni: puoi parlare in modo naturale, gesticolare e stabilire un contatto visivo”, scrive Robson.
<iframe width=”560″ height=”315″ src=”https://www.youtube.com/embed/Q13CishCKXY” title=”YouTube video player” frameborder=”0″ allow=”accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture” allowfullscreen></iframe>
Per creare questa esperienza, Google sta applicando la ricerca in visione artificiale, apprendimento automatico, audio spaziale e compressione in tempo reale; inoltre, ha sviluppato un sistema di visualizzazione del campo luminoso che crea un senso di volume e profondità senza bisogno di occhiali o auricolari aggiuntivi. L’effetto finale è la sensazione “che qualcuno sia seduto proprio di fronte a te, come se fosse proprio lì”.
Il Campus Quantum AI per costruire (anche) un super computer
Entro i prossimi dieci anni “costruiremo il primo computer quantistico al mondo con correzione degli errori”, promette Google, e il nuovo campus Quantum AI (intelligenza artificiale quantistica) è il luogo in cui questo sarà possibile.
Affrontare molte delle più grandi sfide del mondo, dal cambiamento climatico alla prossima pandemia, richiederà un nuovo tipo di elaborazione: un computer quantistico, utile e corretto dagli errori, consentirà di rispecchiare la complessità della natura e di sviluppare nuovi materiali, batterie migliori, medicinali più efficaci e altro ancora. Per questo, Google ha deciso di aprire un campus Quantum AI in Santa Barbara, California, che ospiterà uffici di ricerca, una struttura di fabbricazione e il primo data center quantistico della compagnia.
Maps aiuterà a ridurre i momenti di frenata brusca durante la guida
Presto, Google Maps utilizzerà l’apprendimento automatico per ridurre le possibilità di incappare in momenti di frenata brusca, ovvero gli “incidenti in cui premi forte sui freni, causati da situazioni come ingorghi improvvisi o confusione su quale uscita autostradale prendere”.
Quando chiediamo indicazioni stradali in Maps, il sistema calcola il percorso in base a molti fattori, come il numero di corsie di una strada o la direzione del percorso. Con questo aggiornamento, prenderà in considerazione anche la probabilità di frenate brusche: Maps identificherà le due opzioni di percorso più veloci al momento, consigliando automaticamente quella con meno momenti di frenata brusca (a condizione che l’ETA – estimated time of arrival, tempo di arrivo previsto – sia più o meno lo stesso).
Nelle previsioni aziendali, questi cambiamenti hanno il potenziale per eliminare oltre 100 milioni di eventi di frenata brusca nei percorsi guidati con Google Maps ogni anno.
Ricordi ancora più personalizzati in Google Foto
Già oggi, con la feature Ricordi possiamo tornare a guardare foto importanti degli anni passati o momenti salienti dell’ultima settimana. Utilizzando l’apprendimento automatico, Google Foto sarà presto in grado di identificare dei pattern meno evidenti nelle foto: dalla fine dell’estate, “quando troveremo un set di tre o più foto con somiglianze come forma o colore, evidenzieremo questi piccoli motivi per te nei tuoi ricordi”, annuncia l’azienda.
Ad esempio, Foto potrebbe identificare uno schema di foto di famiglia scattate sullo stesso divano nel corso degli anni – qualcosa che non avremmo mai pensato di cercare, ma che racconta una storia significativa della nostra vita quotidiana.
Momenti cinematici nelle foto
Su Google Foto debutterà presto anche un’altra funzione, che ricorda da vicino le immagini in movimento viste nei film della saga di Harry Potter!
“Quando stai cercando di ottenere la foto perfetta, di solito fai lo stesso scatto due o tre (o 20) volte; utilizzando le reti neurali, possiamo prendere due immagini quasi identiche e colmare le lacune creando nuovi frame intermedi”, dando vita a immagini vivide e in movimento chiamate momenti cinematici (cinematic moments).
Produrre questo effetto da zero “richiederebbe ore agli animatori professionisti, ma con l’apprendimento automatico possiamo generare automaticamente questi momenti e portarli ai tuoi momenti salienti recenti”, e la feature non necessita di un telefono con caratteristiche tecniche specifiche e sarà disponibile per tutti su Android e iOS.
Google Workspace, nuove funzionalità per una collaborazione più inclusiva
In Google Workspace – la suite di software e strumenti di produttività per il cloud computing e per la collaborazione – la scrittura assistita suggerirà un linguaggio più inclusivo quando applicabile. Ad esempio, potrebbe consigliare di utilizzare la parola “chairperson” invece di ” chairman” o ” mail carrier” invece di ” mailman”. Inoltre, può anche offrire altri suggerimenti stilistici per evitare la voce passiva e il linguaggio offensivo, che possono accelerare l’editing e aiutare a rendere migliore la scrittura.
Le applicazioni AI in Google Shopping
Nel corso dell’evento, Google ha anche annunciato una serie di funzionalità relative a Google Shopping e al commercio, come il lancio di Google Shopping Graph, una nuova partnership con Shopify, aggiornamenti di Google Lens e altro ancora.
Il grafo dello shopping mostra i prodotti migliori per le esigenze particolari dell’utente, aiutando gli acquirenti a trovare ciò che stanno cercando grazie a una conoscenza approfondita di tutti i prodotti disponibili, sulla base delle informazioni provenienti da immagini, video, recensioni online e persino inventario nei negozi locali.
Lo Shopping Graph è un modello potenziato dall’intelligenza artificiale che tiene traccia di prodotti, venditori, marchi, recensioni, informazioni sui prodotti e dati di inventario, nonché del modo in cui tutti questi attributi sono correlati tra loro. Con le persone “che fanno acquisti su Google più di un miliardo di volte al giorno, Shopping Graph rende queste sessioni più utili, collegando le persone con oltre 24 miliardi di inserzioni di milioni di commercianti sul Web”.
Interessante (seppur non legata all’AI) è la partnership con Shopify, che permette ai merchant che usano la piattaforma di semplificare il processo per presentare i propri prodotti su Google in pochi clic, diventando così scopribili per i consumatori ad alto intento su Ricerca Google, Shopping, YouTube, Google Immagini e altre superfici.
Google ha inoltre aggiunto le funzionalità di Google Lens a Google Foto, e quindi ora nell’applicazione ci sarà un suggerimento per cercare la foto con Lens e consentire di vedere i risultati di ricerca che possono aiutare “a trovare quel paio di scarpe o il pattern del wallpaper che ha attirato la tua attenzione”.
I progressi di Google Lens e AR per l’apprendimento
Non è il solo aggiornamento relativo a Google Lens, come spiegato anche da questo post sul blog italiano della compagnia, che rivela che l’applicazione che consente di fare una ricerca su ciò che vediamo (dalla fotocamera, dalle foto o persino dalla barra di ricerca) conta “più di 3 miliardi di ricerche ogni mese e un utilizzo è legato sempre più all’apprendimento”.
Proprio per questo motivo, Google ha migliorato alcuni strumenti, come il filtro Traduci in Lens che permette di “copiare, ascoltare o cercare nel testo tradotto, aiutando gli studenti ad accedere ai contenuti didattici dal Web in oltre 100 lingue”.
Un altro potente strumento per l’apprendimento visivo è la realtà aumentata – AR che serve a migliorare la ricerca per immagini: un’applicazione pratica sono “i nuovi atleti in realtà aumentata nella Ricerca”, che permette di “vedere i movimenti distintivi di alcuni dei vostri atleti preferiti in realtà aumentata, come la famosa routine dei fasci di equilibrio di Simone Biles”.
Uno strumento di assistenza dermatologica immediata
Le ultime due applicazioni pratiche dell’Intelligenza Artificiale sono decisamente straordinarie, e riguardano entrambe l’ambito della salute.
Ogni anno “vediamo miliardi di ricerche Google relative a problemi di pelle, unghie e capelli, ma può essere difficile descrivere ciò che vedi sulla tua pelle solo con le parole”, premette Robson. Un supporto arriva dallo “strumento di assistenza dermatologica alimentato da AI con marchio CE, un’applicazione basata sul Web che miriamo a rendere disponibile per i primi test nell’UE entro la fine dell’anno”, che renderà più facile capire le potenziali situazioni in atto sulla pelle.
L’uso di questo strumento è molto semplice, perché basterà usare la fotocamera del telefono per scattare tre immagini della pelle, dei capelli o delle unghie da diverse angolazioni. Il sistema farà quindi delle domande sul tipo di pelle, sul tempo di comparsa del problema e sull’eventuale presenza di altri sintomi, che aiutano l’IA a restringere le possibilità.
Il modello AI analizza tutte queste informazioni e attinge dalla sua conoscenza di 288 condizioni mediche per fornire un elenco di possibili problemi in atto, da approfondire ulteriormente con una ricerca mirata. Ovviamente, Google specifica che l’applicazione non è pensata per sostituire la diagnosi medica, ma piuttosto per rappresentare un buon punto di partenza.
Un supporto allo screening per la tubercolosi
Molto specifico anche l’altro ambito di utilizzo medico dell’AI, che potrà supportare la battaglia contro la tubercolosi, che resta “una delle principali cause di morte in tutto il mondo, infetta 10 milioni di persone all’anno e ha un impatto sproporzionato sulle persone nei Paesi a reddito medio-basso”.
Uno dei problemi è che “è molto difficile da diagnosticare precocemente, perché i suoi sintomi sono simili a quelli di altre malattie respiratorie”; le radiografie del torace aiutano con la diagnosi, ma gli esperti non sono sempre disponibili per leggere i risultati. Ecco perché l’Organizzazione mondiale della sanità (OMS) ha recentemente raccomandato di utilizzare la tecnologia per aiutare con lo screening e il triage per la tubercolosi: i ricercatori di Google stanno esplorando “come utilizzare l’intelligenza artificiale per identificare potenziali pazienti con tubercolosi per i test di follow-up, sperando di prendere la malattia in anticipo e lavorare per sradicarla”.
Immagine in evidenza da The Keyword, Google