EconomiaNotizia

Scopri come sono diventate reali le immagini generate dall’intelligenza artificiale

[ad_1]


Vedere non crede da molto tempo. Le foto sono state false e manipolato quasi da quando esiste la fotografia.

Ora, non è necessaria nemmeno la realtà perché le fotografie sembrino autentiche, solo l’intelligenza artificiale che risponde a un suggerimento. Anche gli esperti a volte faticano a dire se uno è reale o no. Puoi?

Il rapido avvento dell’intelligenza artificiale ha fatto scattare l’allarme sul fatto che la tecnologia utilizzata per ingannare le persone stia avanzando molto più velocemente della tecnologia in grado di identificare i trucchi. Le aziende tecnologiche, i ricercatori, le agenzie fotografiche e le testate giornalistiche stanno lottando per recuperare il ritardo, cercando di stabilire standard per la provenienza e la proprietà dei contenuti.

I progressi stanno già alimentando la disinformazione e vengono utilizzati per alimentare le divisioni politiche. I governi autoritari hanno creato emittenti di notizie apparentemente realistiche per portare avanti i loro obiettivi politici. Il mese scorso, alcune persone si sono innamorate delle immagini che mostrano Papa Francesco che indossa una giacca gonfia Balenciaga e un terremoto che ha devastato il nord-ovest del Pacifico, anche se nessuno di questi eventi si era verificato. Le immagini sono state create utilizzando Midjourney, un popolare generatore di immagini.

Martedì, mentre l’ex presidente Donald J. Trump si è consegnato all’ufficio del procuratore distrettuale di Manhattan per affrontare le accuse penali, su Reddit sono apparse immagini generate dall’intelligenza artificiale che mostrano l’attore Bill Murray come presidente alla Casa Bianca. Un’altra immagine che mostra il signor Trump che marcia davanti a una grande folla con le bandiere americane sullo sfondo è stata rapidamente ricondivisa su Twitter senza la divulgazione che aveva accompagnato il post originale, notando che in realtà non era una fotografia.

Gli esperti temono che la tecnologia possa accelerare un’erosione della fiducia nei media, nel governo e nella società. Se qualsiasi immagine può essere fabbricata – e manipolata – come possiamo credere a tutto ciò che vediamo?

“Gli strumenti miglioreranno, diventeranno più economici e verrà un giorno in cui non si potrà credere a nulla di ciò che vedi su Internet”, ha affermato Wasim Khaled, amministratore delegato di Blackbird.AI, un’azienda che aiuta i clienti combattono la disinformazione.

L’intelligenza artificiale consente praticamente a chiunque di creare opere d’arte complesse, come quelle di oggi mostra alla galleria d’arte Gagosian di New York, o immagini realistiche che confondono il confine tra ciò che è reale e ciò che è finzione. Inserisci una descrizione testuale e la tecnologia può produrre un’immagine correlata, senza che siano richieste competenze speciali.

Spesso ci sono indizi che le immagini virali siano state create da un computer piuttosto che catturate nella vita reale: il papa lussuosamente rivestito aveva occhiali che sembravano fondersi con la sua guancia e le dita sfocate, per esempio. Gli strumenti artistici AI spesso producono anche testi privi di senso. Ecco alcuni esempi:

I rapidi progressi nella tecnologia, tuttavia, stanno eliminando molti di questi difetti. L’ultima versione di Midjourney, rilasciata il mese scorso, è in grado di rappresentare mani realistiche, un’impresa che era, evidentemente, sfuggita ai primi strumenti di imaging.

Giorni prima che il signor Trump si costituisse per affrontare le accuse penali a New York City, le immagini del suo “arresto” giravano sui social media. Sono state create da Eliot Higgins, un giornalista britannico e fondatore di Bellingcat, un’organizzazione investigativa open source. Ha usato Midjourney per immaginare l’arresto, il processo, la prigionia dell’ex presidente in una tuta arancione e la fuga attraverso una fogna. Ha pubblicato le immagini su Twitter, contrassegnandole chiaramente come creazioni. Da allora sono stati ampiamente condivisi.

Le immagini non avevano lo scopo di ingannare nessuno. Invece, il signor Higgins ha voluto attirare l’attenzione sul potere dello strumento, anche nella sua infanzia.

Le immagini di Midjourney, ha detto, sono state in grado di superare i programmi di riconoscimento facciale che Bellingcat utilizza per verificare le identità, tipicamente di russi che hanno commesso crimini o altri abusi. Non è difficile immaginare governi o altri attori malvagi che fabbricano immagini per molestare o screditare i loro nemici.

Allo stesso tempo, ha affermato Higgins, lo strumento ha anche faticato a creare immagini convincenti con persone che non sono così ampiamente fotografate come Trump, come il nuovo primo ministro britannico, Rishi Sunak, o il comico Harry Hill, “che probabilmente non è molto conosciuto al di fuori del Regno Unito.”

Midjourney non era comunque divertito. Ha sospeso l’account del signor Higgins senza spiegazioni dopo che le immagini si sono diffuse. La società non ha risposto alle richieste di commento.

I limiti delle immagini generative le rendono relativamente facili da rilevare da parte delle organizzazioni giornalistiche o di altri in sintonia con il rischio, almeno per ora.

Tuttavia, le società di foto stock, regolatori governativi e un gruppo commerciale dell’industria musicale si sono mossi per proteggere i loro contenuti dall’uso non autorizzato, ma la potente capacità della tecnologia di imitare e adattarsi sta complicando questi sforzi.

Alcuni generatori di immagini AI hanno persino riprodotto immagini: un nauseabondo omaggio a “Twin Peaks”; Will Smith che mangia manciate di pasta — con versioni distorte delle filigrane utilizzate da aziende come Getty Images o Shutterstock.

A febbraio, Getty ha accusato Stability AI di aver copiato illegalmente più di 12 milioni di foto Getty, insieme a didascalie e metadati, per addestrare il software alla base del suo strumento Stable Diffusion. Nella sua causa, Getty ha sostenuto che Stable Diffusion ha diluito il valore della filigrana Getty incorporandola in immagini che andavano “dal bizzarro al grottesco”.

Getty ha affermato che il “furto sfacciato e il freeride” è stato condotto “su scala sbalorditiva”. Stability AI non ha risposto a una richiesta di commento.

La causa legale di Getty riflette le preoccupazioni sollevate da molti singoli artisti: le società di intelligenza artificiale stanno diventando una minaccia competitiva copiando contenuti che non hanno il permesso di utilizzare.

Anche le violazioni dei marchi sono diventate una preoccupazione: le immagini generate artificialmente hanno replicato il logo del pavone della NBC, sebbene con lettere incomprensibili, e hanno mostrato il familiare logo sinuoso della Coca-Cola con O extra inserite nel nome.

A febbraio, l’US Copyright Office ha valutato le immagini generate artificialmente quando ha valutato il caso di “Zarya of the Dawn”, un fumetto di 18 pagine scritto da Kristina Kashtanova con disegni generati da Midjourney. L’amministratore del governo ha deciso di offrire protezione del copyright al testo del fumetto, ma non alla sua grafica.

“A causa della notevole distanza tra ciò che un utente può ordinare a Midjourney di creare e il materiale visivo che Midjourney effettivamente produce, gli utenti di Midjourney non hanno un controllo sufficiente sulle immagini generate per essere trattati come la ‘mente principale’ dietro di loro”, ha spiegato l’ufficio. nella sua decisione.

La minaccia per i fotografi sta rapidamente superando lo sviluppo delle protezioni legali, ha affermato Mickey H. Osterreicher, consigliere generale della National Press Photographers Association. Le redazioni faranno sempre più fatica ad autenticare i contenuti. Gli utenti dei social media stanno ignorando le etichette che identificano chiaramente le immagini come generate artificialmente, scegliendo di credere che siano fotografie reali, ha affermato.

L’intelligenza artificiale generativa potrebbe anche rendere più facile la produzione di video falsi. Questa settimana è apparso online un video che sembrava mostrare Nina Schick, un’autrice ed esperta di intelligenza artificiale generativa, che spiegava come la tecnologia stesse creando “un mondo in cui le ombre vengono scambiate per la realtà”. Il viso della signora Schick ha poi avuto un difetto quando la telecamera si è tirata indietro, mostrando un doppio corpo al suo posto.

Il video spiegava che il deepfake era stato creato, con il consenso della signora Schick, dalla società olandese Revel.ai e da Truepic, una società californiana che sta esplorando una più ampia verifica dei contenuti digitali.

Le aziende hanno descritto il loro video, che presenta un timbro che lo identifica come generato dal computer, come il “primo deepfake digitale trasparente”. I dati sono sigillati crittograficamente nel file; la manomissione dell’immagine interrompe la firma digitale e impedisce la visualizzazione delle credenziali quando si utilizza un software attendibile.

Le aziende sperano che il badge, che verrà fornito con una tariffa per i clienti commerciali, venga adottato da altri creatori di contenuti per contribuire a creare uno standard di fiducia che coinvolge le immagini AI.

“La portata di questo problema accelererà così rapidamente che guiderà molto rapidamente l’educazione dei consumatori”, ha affermato Jeff McGregor, amministratore delegato di Truepic.

Truepic fa parte della Coalition for Content Provenance and Authenticity, un progetto nato attraverso un’alleanza con aziende come Adobe, Intel e Microsoft per tracciare meglio le origini dei media digitali. Il produttore di chip Nvidia ha detto lo scorso mese che stava collaborando con Getty per aiutare a formare modelli di intelligenza artificiale “responsabili” utilizzando i contenuti concessi in licenza da Getty, con royalties pagate agli artisti.

Lo stesso giorno, Adobe ha presentato il proprio prodotto per la generazione di immagini, Firefly, che verrà addestrato utilizzando solo immagini concesse in licenza o dal proprio stock o non più protette da copyright. Dana Rao, chief trust officer dell’azienda, detto sul suo sito web che lo strumento avrebbe aggiunto automaticamente credenziali di contenuto – “come un’etichetta nutrizionale per l’imaging” – che identificavano come era stata realizzata un’immagine. Adobe ha affermato che prevede anche di compensare i contributori.

Il mese scorso, la modella Chrissy Teigen ha scritto su Twitter che era stata ingannata dalla giacca gonfia del papa, aggiungendo che “non sopravviverò in alcun modo al futuro della tecnologia”.

La scorsa settimana l’a serie di nuove immagini AI ha mostrato il papa, tornato nella sua solita veste, gustando un bicchiere di birra alto. Le mani apparivano per lo più normali, a parte la fede nuziale sull’anulare del pontefice.

Produzione aggiuntiva di Jeanne Noonan DelMundo, Aaron Krolik e Michael André.



[ad_2]
Source link

Related Articles

Back to top button