This Website Shows How Much Google’s AI Can Glean From Your Photos
L’ingegnere del software Vishnu Mohandas ha deciso che avrebbe lasciato Google in più di un modo quando ha saputo che il gigante della tecnologia lo aveva brevemente aiutato l’esercito americano sta sviluppando l’intelligenza artificiale per studiare le immagini dei droni. Nel 2020 ha lasciato il lavoro presso Google Assistant e ha anche smesso di eseguire il backup di tutte le sue immagini Google Foto. Temeva che i suoi contenuti potessero essere utilizzati per addestrare sistemi di intelligenza artificiale, anche se non specificamente legati al progetto del Pentagono. “Non ho alcun controllo sui risultati futuri che ciò consentirà”, ha pensato Mohandas. “Non dovrei più essere responsabile?”
Mohandas, che ha imparato a programmare da autodidatta e vive a Bangalore, in India, ha deciso di voler sviluppare un servizio alternativo per archiviare e condividere foto. fonte aperta E crittografato end-to-end. Qualcosa di “più privato, sano e affidabile”, dice. Il servizio a pagamento da lui ideato, Ente, è redditizio e afferma di avere più di 100.000 utenti, molti dei quali fanno già parte di quella folla ossessionata dalla privacy. Ma Mohandas ha faticato a spiegare a un pubblico più ampio il motivo per cui dovrebbero riconsiderare l’affidamento a Google Foto, nonostante tutte le comodità che offre.
Poi un fine settimana di maggio, a uno stagista dell’Ente è venuta un’idea: dare alle persone un’idea di cosa possono imparare alcuni modelli di intelligenza artificiale di Google studiando le immagini. Ente è stato lanciato il mese scorso https://Theyseeyourphotos.comun sito web e una trovata di marketing progettata per rivoltare la tecnologia di Google contro se stessa. Le persone possono caricare qualsiasi foto sul sito Web, che viene quindi inviata a Google Cloud visione artificiale programma che ne scrive una descrizione sorprendentemente approfondita in tre paragrafi. (L’Ente chiede al modello AI di documentare piccoli dettagli nelle immagini caricate.)
Una delle prime foto che Mohandas ha provato a caricare è stata un selfie con sua moglie e sua figlia davanti a un tempio in Indonesia. L’analisi di Google è stata esaustiva e ha documentato anche il modello specifico di orologio che indossava sua moglie, un Casio F-91W. Ma poi, dice Mohandas, l’intelligenza artificiale ha fatto qualcosa di strano: ha notato che gli orologi Casio F-91W sono spesso associato agli estremisti islamici. “Abbiamo dovuto modificare gli indizi per renderlo un po’ più sano ma comunque inquietante”, dice Mohandas. L’Ente ha iniziato a chiedere al modello di produrre risultati brevi e oggettivi, niente di oscuro.
La stessa foto di famiglia caricata su Theyseeyourphotos ora produce un risultato più generale, mostrando il nome del tempio e il “cielo parzialmente nuvoloso e la vegetazione lussureggiante” che lo circonda. Ma l’intelligenza artificiale fa ancora alcune ipotesi su Mohandas e la sua famiglia, come ad esempio che i loro volti esprimano “contentezza comune” e che “i genitori siano probabilmente di discendenza della classe media dell’Asia meridionale”. Valuta il loro abbigliamento (“adatto per visitare la città”) e rileva che “l’orologio da donna mostra un’ora di circa 14:00, che corrisponde ai metadati dell’immagine”.
Il portavoce di Google, Colin Smith, non ha voluto commentare direttamente il progetto dell’Ente. Ha inviato WIRED a pagine di supporto questi caricamenti di stato su Google Foto vengono utilizzati solo per addestrare modelli di intelligenza artificiale generativa che aiutano le persone a gestire le proprie librerie di immagini, come modelli che analizzano l’età e la posizione dei soggetti delle foto. L’azienda Dire non vende i contenuti archiviati in Google Foto a terzi né li utilizza per scopi pubblicitari. Gli utenti possono disabilitare alcune funzionalità di analisi in Foto, ma non possono impedire a Google di accedere completamente alle proprie immagini perché i dati non sono crittografati end-to-end.