La nuova funzione “multisearch” di Google ti permette di cercare utilizzando testo e immagini allo stesso tempo

Google ha annunciato oggi che sta lanciando una nuova funzione “multisearch” che permette agli utenti di cercare utilizzando testo e immagini allo stesso tempo tramite Google Lens, la tecnologia di riconoscimento delle immagini della società. Google ha preso in giro la funzionalità lo scorso settembre al suo evento Search On e ha detto che avrebbe lanciato la funzione nei prossimi mesi dopo averla testata e valutata. A partire da oggi, la nuova funzionalità di ricerca multipla è disponibile come caratteristica beta in inglese negli Stati Uniti.

Per iniziare, è necessario aprire l’applicazione Google su Android o iOS, toccare l’icona della fotocamera Lens e cercare uno dei tuoi screenshot o scattare una foto. Poi, è possibile scorrere verso l’alto e toccare il pulsante “+ Aggiungi alla tua ricerca” per aggiungere testo. Google nota che gli utenti dovrebbero avere le ultime versioni dell’app per accedere alla nuova funzionalità.

Con la nuova funzione multisearch, è possibile fare una domanda su un oggetto di fronte a voi o personalizzare i risultati di ricerca per colore, marca o attributi visivi. Google ha detto a TechCrunch che la nuova funzione ha attualmente i migliori risultati per le ricerche di shopping. Con questo lancio iniziale della beta, si possono fare anche cose oltre lo shopping, ma non sarà perfetto per ogni ricerca.

In pratica, ecco come potrebbe funzionare la nuova funzione. Diciamo che hai trovato un vestito che ti piace, ma non sei un fan del colore in cui è disponibile. Si potrebbe salvare una foto del vestito e poi aggiungere il testo “verde” nella query di ricerca per trovarlo nel colore desiderato. In un altro esempio, stai cercando dei nuovi mobili, ma vuoi essere sicuro che si abbinino ai tuoi mobili attuali. Puoi prendere una foto del tuo set da pranzo e aggiungere il testo “tavolino” nella tua query di ricerca per trovare un tavolo corrispondente. Oppure, diciamo che hai una nuova pianta e non sei sicuro di come prendertene cura correttamente. Potreste scattare una foto della pianta e aggiungere il testo “istruzioni per la cura” nella vostra ricerca per saperne di più.

La nuova funzionalità potrebbe essere particolarmente utile per il tipo di query che Google ha attualmente problemi con – dove c’è una componente visiva di ciò che si sta cercando che è difficile da descrivere usando solo le parole. Combinando l’immagine e le parole in una query, Google potrebbe avere una migliore possibilità di fornire risultati di ricerca pertinenti.

“A Google, stiamo sempre sognando nuovi modi per aiutarti a scoprire le informazioni che stai cercando – non importa quanto possa essere difficile esprimere ciò di cui hai bisogno”, ha detto Google in un post sul blog dell’annuncio. “Ecco perché oggi, stiamo introducendo un modo completamente nuovo di cercare: usando testo e immagini allo stesso tempo. Con la ricerca multipla su Lens, si può andare oltre la casella di ricerca e fare domande su ciò che si vede”.

Google dice che la nuova funzionalità è resa possibile dai suoi ultimi progressi nell’intelligenza artificiale. L’azienda sta anche esplorando i modi in cui la multisearch potrebbe essere migliorata da MUM, il suo ultimo modello di AI in Search. Multitask Unified Model, o MUM, può capire simultaneamente le informazioni attraverso una vasta gamma di formati, tra cui testo, immagini e video, e trarre intuizioni e collegamenti tra argomenti, concetti e idee.

L’annuncio di oggi arriva una settimana dopo che Google ha annunciato che sta introducendo miglioramenti al suo modello di AI per rendere Google Search un’esperienza più sicura e migliore nella gestione delle query sensibili, comprese quelle su argomenti come il suicidio, la violenza sessuale, l’abuso di sostanze e la violenza domestica. Sta anche utilizzando altre tecnologie AI per migliorare la sua capacità di rimuovere contenuti espliciti o suggestivi indesiderati dai risultati di ricerca quando le persone non li stanno cercando specificamente.

Google’s new ‘multisearch’ feature lets you search using text and images at the same time

Google announced today that it’s rolling out a new “multisearch” feature that allows users to search using text and images at the same time via Google Lens, the company’s image recognition technology. Google first teased the functionality last September at its Search On event and said it would be launching the feature in the coming months after testing and evaluation. Starting today, the new multisearch functionality is available as a beta feature in English in the United States.

To get started, you need to open the Google app on Android or iOS, tap the Lens camera icon and either search one of your screenshots or take a photo. Then, you can swipe up and tap the “+ Add to your search” button to add text. Google notes that users should have the latest versions of the app to access the new functionality.

With the new multisearch feature, you can ask a question about an object in front of you or refine your search results by color, brand or visual attributes. Google told TechCrunch that the new feature currently has the best results for shopping searches, with more use cases to come in the future. With this initial beta launch, you can also do things beyond shopping, but it won’t be perfect for every search.

In practice, this is how the new feature could work. Say you found a dress that you like but aren’t a fan of the color it’s available in. You could pull up a photo of the dress and then add the text “green” in your search query to find it in your desired color. In another example, you’re looking for new furniture, but want to make sure it complements your current furniture. You can take a photo of your dining set and add the text “coffee table” in your search query to find a matching table. Or, say you got a new plant and aren’t sure how to properly take care of it. You could take a picture of the plant and add the text “care instructions” in your search to learn more about it.

The new functionality could be especially useful for the type of queries that Google currently has trouble with — where there’s a visual component to what you’re looking for that is hard to describe using words alone. By combining the image and the words into one query, Google may have a better shot at delivering relevant search results.

“At Google, we’re always dreaming up new ways to help you uncover the information you’re looking for — no matter how tricky it might be to express what you need,” Google said in a blog post about the announcement. “That’s why today, we’re introducing an entirely new way to search: using text and images at the same time. With multisearch on Lens, you can go beyond the search box and ask questions about what you see.”

Google says the new functionality is made possible by its latest advancements in artificial intelligence. The company is also exploring ways in which multisearch could be enhanced by MUM, its latest AI model in Search. Multitask Unified Model, or MUM, can simultaneously understand information across a wide range of formats, including text, images and videos, and draw insights and connections between topics, concepts and ideas.

Today’s announcement comes a week after Google announced it’s rolling out improvements to its AI model to make Google Search a safer experience and one that’s better at handling sensitive queries, including those around topics like suicide, sexual assault, substance abuse and domestic violence. It’s also using other AI technologies to improve its ability to remove unwanted explicit or suggestive content from Search results when people aren’t specifically seeking it out.

Fonte: finance.yahoo.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Iscriviti alla Newsletter

Torna su