La fotocamera di Apple può leggere il testo, Spotlight ora cerca le foto

La fotocamera di Apple può leggere il testo, Spotlight ora cerca le foto

Annunciato oggi al WWDC 2021, Apple ha aggiunto “Live Text” alle foto con il prossimo iOS 15. Questa funzione consentirà ai dispositivi Apple di riconoscere testo e numeri all’interno di un’immagine e consentire agli utenti di copiare quel testo dall’immagine e incollarlo in altri app come Mail o Messaggi.

Questa nuova funzionalità di testo live di Apple funziona su nuove immagini scattate con il tuo iPhone o iPad, nonché su qualsiasi immagine esistente che gli utenti Apple hanno già memorizzato sui propri dispositivi Apple. Gli utenti di iPhone e iPad possono utilizzare varie funzionalità Apple come Lookup per scoprire il contenuto della loro immagine, copiare e inviare il testo dall’immagine di cui hanno bisogno, o anche potenzialmente prendere la password WiFi direttamente dall’insegna di un bar.

I nuovi rilevatori di dati possono rilevare i numeri di telefono nelle foto e renderli toccabili. Live Text supporterà sette lingue su iPhone, iPad e Mac e potrebbe essere una funzionalità rivoluzionaria per gli studenti che prendono appunti e per gli uomini d’affari che desiderano tradurre facilmente le note su una lavagna in testo digitale.

Oltre alla nuova funzione Live Text, gli utenti possono ora cercare tra le foto in Spotlight utilizzando una nuova funzione chiamata Visual Lookup. Utilizzando Visual Lookup, gli utenti possono cercare per persone (riconoscimento facciale), scene, elementi (neve/pioggia), luoghi e punti di riferimento o persino testo specifico all’interno delle foto. Secondo Apple, questo includerà anche risultati avanzati per i contatti in Spotlight, aiutando gli utenti di iPhone, iPad e Mac a cercare punti di riferimento, animali, piante e altre cose in natura.

Sebbene queste funzionalità possano essere familiari agli utenti di Google, l’aggiornamento di Apple porta finalmente la tecnologia su iOS. Come sempre con Apple, la dimostrazione è sembrata molto semplice, intuitiva e facile da usare. Resta da vedere quanto sarà accurato Spotlight, tuttavia.

Apple afferma che la funzione è abilitata utilizzando “reti neurali profonde” e “intelligenza sul dispositivo”. La società non è andata troppo in profondità sulla sua versione di Google Lens, ma Apple ha affermato che lo strumento riconoscerà libri, arte, natura, animali domestici e punti di riferimento all’interno delle foto degli utenti. Indipendentemente dalle sue prestazioni effettive, la sua inclusione indica che l’azienda sta adottando misure per applicare l’apprendimento automatico alle immagini degli utenti per rendere le informazioni che possono essere raccolte sempre più utili. Poiché Google è il tipo di ricerca, qualsiasi concorrenza in questo spazio è utile solo per i consumatori.




Iscriviti nei nostri Gruppi Telegram CLICCA QUI per condividere la tue fotografie, chiedere e rispondere alle domande che sorgono e aiutarsi a vicenda!

Ti ricordiamo anche il gruppo Telegram principale Fotografia Italia!