A volte, anche come giornalista di tecnologia, si può essere sorpresi dalla rapidità con cui la tecnologia migliora. Per esempio, solo oggi ho scoperto che il mio iPhone offre una funzione che desideravo da tempo : la possibilità di identificare piante e fiori partendo da una semplice foto, si chiama Visual Look Up.
È vero che diverse applicazioni di terze parti offrono questa funzione da anni, ma l’ultima volta che le ho provate sono rimasto deluso dalla loro velocità e precisione. E sì, ci sono Google Lens e Snapchat Scan, ma è sempre meno comodo aprire un’app che altrimenti non userei.
Tuttavia, dall’introduzione di iOS 15 lo scorso settembre, Apple ha offerto una propria versione di questa funzione di ricerca visiva ed è davvero ottima.
Funziona in modo molto semplice. Basta aprire una foto o uno screenshot nell’app Foto e cercare l’icona “i” blu sotto di essa. Se ha un piccolo anello scintillante intorno, significa che iOS ha trovato qualcosa nella foto che può identificare grazie all’apprendimento automatico. Toccate l’icona, quindi fate clic su “Cerca” e cercherete di raccogliere informazioni utili.
Visual Look Up Non funziona solo per le piante e i fiori, ma anche per i punti di riferimento, l’arte, gli animali domestici e “altri oggetti”. Naturalmente non è perfetto, ma mi ha sorpreso più volte di quanto mi abbia deluso. Ecco altri esempi tratti dal mio rullino fotografico:
Sebbene Apple abbia annunciato questa funzione lo scorso anno alla WWDC, non ne ha esattamente pubblicizzato la disponibilità. (L’ho scoperta tramite un link in una delle mie newsletter tecnologiche preferite, The Overspill). Anche la pagina di supporto ufficiale per Visual Look Up fornisce messaggi contrastanti, dicendo che è “solo per gli Stati Uniti” e elencando altre regioni compatibili in un’altra pagina.
La disponibilità di Visual Look Up è ancora limitata, ma l’accesso si è ampliato dopo il lancio. Ora è disponibile in inglese negli Stati Uniti, Australia, Canada, Regno Unito, Singapore e Indonesia; in francese in Francia; in tedesco in Germania; in italiano in Italia e in spagnolo in Spagna, Messico e Stati Uniti.
È un’ottima funzione, ma mi ha anche fatto pensare a cos’altro potrebbe fare la ricerca visiva. Immaginate di scattare una foto alla vostra nuova pianta d’appartamento, per esempio, e di sentirvi chiedere da Siri “Vuoi che ti ricordi di annaffiare la pianta?”. – Oppure, se scattate una foto di un luogo di interesse in vacanza, Siri vi chiederà di cercare sul web gli orari di apertura e dove acquistare i biglietti.
Ho imparato molto tempo fa che è sciocco sperare che Siri faccia qualcosa di troppo avanzato. Ma queste sono le funzioni che potremmo ottenere con le future cuffie AR o VR. Speriamo che se Apple introdurrà questo tipo di funzionalità, farà un grande colpo.
Today I learned you can identify plants and flowers using just your iPhone camera ( Visual Look Up )
Sometimes, even as a tech reporter, you can be caught out by how quickly technology improves. Case in point: it was only today that I learned that my iPhone has been offering a feature I’ve long desired — the ability to identify plants and flowers from just a photo.
It’s true that various third-party apps have offered this function for years, but last time I tried them I was disappointed by their speed and accuracy. And, yes, there’s Google Lens and Snapchat Scan, but it’s always less convenient to open up an app I wouldn’t otherwise use.
But, since the introduction of iOS 15 last September, Apple has offered its own version of this visual search feature. It’s called Visual Look Up, and it’s pretty damn good.
It works very simply. Just open up a photo or screenshot in the Photos app and look for the blue “i” icon underneath. If it has a little sparkly ring around it, then iOS has found something in the photo it can identify using machine learning. Tap the icon, then click “Look Up” and it’ll try and dredge up some useful information.
It doesn’t just work for plants and flowers, either, but for landmarks, art, pets, and “other objects.” It’s not perfect, of course, but it’s surprised me more times than it’s let me down. Here are some more examples just from my camera roll:
Although Apple announced this feature last year at WWDC, it hasn’t exactly been trumpeting its availability. (I spotted it via a link in one of my favorite tech newsletters, The Overspill.) Even the official support page for Visual Look Up gives mixed messages, telling you in one place it’s “U.S. only” then listing other compatible regions on a different page.
Visual Look Up is still limited in its availability, but access has expanded since launch. It’s now available in English in the US, Australia, Canada, UK, Singapore, and Indonesia; in French in France; in German in Germany; in Italian in Italy; and in Spanish in Spain, Mexico, and the US.
It’s a great feature, but it’s also got me wondering what else visual search could do. Imagine snapping a picture of your new houseplant, for example, only for Siri to ask “want me to set up reminders for a watering schedule?” — or, if you take a picture of a landmark on holiday, for Siri to search the web to find opening hours and where to buy tickets.
I learned long ago that it’s foolish to pin your hopes on Siri doing anything too advanced. But these are the sorts of features we might eventually get with future AR or VR headsets. Let’s hope if Apple does introduce this sort of functionality, it makes a bigger splash.
Fonte: theverge.com
