Google Lens, una nuova funzionalità in fase di beta test

Step by step. Un passo alla volta, sempre nel segno della crescita. Così è stato sin dalla nascita di quell’applicazione mobile di riconoscimento delle immagini, sviluppata da Google. Il colosso di Mountain View apporta una nuova funzione per Google Lens, progettata portare informazioni pertinenti utilizzando l’analisi visiva. Ora in maniera multipla.

Uno degli annunci più interessanti al keynote di Google incentrato sulla ricerca dello scorso settembre è stato un grande aggiornamento a Lens, per permettere agli utenti di scattare una foto e, contemporaneamente, porre domande al riguardo.

Google Lens 20220408 cell
Google Lens – Adobe Stock

Nasce così “Multisearch” in Google Lens, una release attualmente nella sua fase di test, disponibile per la versione beta, sia su Android sia per iOS. Il gigante californiano ha pensato a Multisearch come un “modo completamente nuovo di ricerca” che mira a rispondere al modo in cui a volte non “hai tutte le parole per descrivere ciò che stavi cercando”.

Un modo nuovo per perfezionare la ricerca

Google Lens 20220408 cell 2
Google Lens – Adobe Stock

Si inizia scattando una foto (o importandone una esistente, fa lo stesso) con Google Lens, quindi scorrendo verso l’alto sul pannello dei risultati e toccando il nuovo pulsante “Aggiungi alla tua ricerca” in alto.

Ciò consentirà a un utente di inserire una “domanda su un oggetto di fronte a lui o di perfezionare la ricerca per colore, marca o attributo visivo“. Esempi inclusi: “Cattura un elegante vestito arancione e aggiungi la query verde per trovarlo in un altro colore”. Oppure: “Scatta una foto del tuo set da pranzo e aggiungi la query tavolino da caffè per trovare un tavolo corrispondente”. E ancora: “Scatta una foto della tua pianta di rosmarino e aggiungi la query istruzioni per la cura“.

I casi d’uso di moda e arredamento per la casa sono in evidenza nella versione beta, con Google che osserva che, attualmente, “i migliori risultati sono per le ricerche di acquisto”. Tutto questo significa che non devi prima usare Lens per identificare una pianta e quindi eseguire una ricerca di testo separata per “istruzioni per la cura” dopo l’identificazione. Le due azioni adesso, con Multisearch, si possono fare contemporaneamente.

Google attribuisce agli “ultimi progressi nell’intelligenza artificiale” il merito di aver reso possibile la ricerca multipla di Lens. Detto questo, però, non utilizza il modello unificato multitasking e non è ancora in grado di gestire query complesse.

Ad esempio, MUM era responsabile della demo in cui potevi scattare una foto di ingranaggi di biciclette rotti e ricevere istruzioni su come riparare. Comunque lo sviluppo è a buon momento, visto lo status Google Lens multisearch, ufficialmente fruibile nella versione beta, in inglese, per il momento negli Stati Uniti.