EconomiaNotizia

Mentre i chatbot si diffondono, i conservatori sognano una risposta di destra

[ad_1]

Quando ChatGPT è esploso in popolarità come strumento che utilizza l’intelligenza artificiale per redigere testi complessi, David Rozado ha deciso di testare il suo potenziale di parzialità. Data scientist in Nuova Zelanda, ha sottoposto il chatbot a una serie di quiz, alla ricerca di segnali di orientamento politico.

I risultati, pubblicati in un recente articoloerano notevolmente coerenti in più di una dozzina di test: “liberale”, “progressista”, “democratico”.

Così ha armeggiato con la sua versione, addestrandola a rispondere alle domande con un’inclinazione decisamente conservatrice. Ha chiamato il suo esperimento RightWingGPT.

Come ha mostrato la sua dimostrazione, l’intelligenza artificiale era già diventata un altro fronte nelle guerre politiche e culturali che sconvolgevano gli Stati Uniti e altri paesi. Anche se i giganti della tecnologia si affrettano a unirsi al boom commerciale provocato dal rilascio di ChatGPT, affrontano un dibattito allarmato sull’uso – e il potenziale abuso – dell’intelligenza artificiale.

La capacità della tecnologia di creare contenuti che si rifanno a punti di vista ideologici predeterminati, o spinge alla disinformazione, evidenzia un pericolo che alcuni dirigenti tecnologici hanno iniziato a riconoscere: che una cacofonia informativa potrebbe emergere da chatbot concorrenti con diverse versioni della realtà, minando la fattibilità di l’intelligenza artificiale come strumento nella vita di tutti i giorni e erodendo ulteriormente la fiducia nella società.

“Questa non è una minaccia ipotetica”, ha affermato Oren Etzioni, consulente e membro del consiglio dell’Allen Institute for Artificial Intelligence. “Questa è una minaccia imminente e imminente.”

I conservatori hanno accusato il creatore di ChatGPT, la società di San Francisco OpenAI, di progettare uno strumento che, dicono, riflette i valori liberali dei suoi programmatori.

Il programma ha, per esempio, scritto un inno al presidente Biden, ma ha rifiutato di scrivere una poesia simile sull’ex presidente Donald J. Trump, citando un desiderio di neutralità. ChatGPT anche ha detto un utente che non era “mai moralmente accettabile” usare un insulto razzista, anche in una situazione ipotetica in cui farlo avrebbe potuto fermare una devastante bomba nucleare.

In risposta, alcuni dei critici di ChatGPT hanno chiesto di creare i propri chatbot o altri strumenti che riflettano invece i loro valori.

Elon Musk, che ha contribuito ad avviare OpenAI nel 2015 prima di andarsene tre anni dopo, ha accusato ChatGPT di essere “svegliato” e si è impegnato a costruire la sua versione.

Gab, un social network con un’inclinazione dichiaratamente nazionalista cristiana che è diventato un hub per suprematisti bianchi ed estremisti, ha promesso di rilasciare strumenti di intelligenza artificiale con “la capacità di generare contenuti liberamente senza i vincoli della propaganda liberale avvolta strettamente attorno al suo codice”.

“La Silicon Valley sta investendo miliardi per costruire questi guardrail liberali per neutralizzare l’intelligenza artificiale nel forzare la loro visione del mondo di fronte agli utenti e presentarla come ‘realtà’ o ‘fatto'”, ha dichiarato Andrew Torba, il fondatore di Gab, in una risposta scritta alle domande.

Ha equiparato l’intelligenza artificiale a una nuova corsa agli armamenti dell’informazione, come l’avvento dei social media, di cui i conservatori avevano bisogno per vincere. “Questa volta non intendiamo permettere ai nostri nemici di avere le chiavi del regno”, ha detto.

La ricchezza dei dati sottostanti di ChatGPT può dare la falsa impressione che si tratti di una sommatoria imparziale dell’intera Internet. La versione rilasciata lo scorso anno è stata addestrata su 496 miliardi di “token” – pezzi di parole, essenzialmente – provenienti da siti Web, post di blog, libri, articoli di Wikipedia e altro ancora.

Il pregiudizio, tuttavia, potrebbe insinuarsi in modelli linguistici di grandi dimensioni in qualsiasi fase: gli esseri umani selezionano le fonti, sviluppano il processo di formazione e modificano le sue risposte. Ogni passo spinge il modello e il suo orientamento politico in una direzione specifica, consapevolmente o meno.

Documenti di ricerca, indagini e azioni legali hanno suggerito che gli strumenti alimentati dall’intelligenza artificiale lo hanno fatto un pregiudizio di genere che censura le immagini dei corpi delle donne, crea disparità fornitura di assistenza sanitaria e discriminare i candidati che lo sono più vecchio, nero, Disabilitato O porta anche gli occhiali.

“Il pregiudizio non è né nuovo né unico per l’IA”, ha affermato il National Institute of Standards and Technology, parte del Dipartimento del Commercio, in un report l’anno scorso, concludendo che “non era possibile raggiungere il rischio zero di parzialità in un sistema di intelligenza artificiale”.

La Cina ha vietato l’uso di uno strumento simile a ChatGPT per paura che possa esporre i cittadini a fatti o idee contrarie a quelle del Partito Comunista.

Le autorità hanno sospeso l’uso di ChatYuan, una delle prime applicazioni simili a ChatGPT in Cina, poche settimane dopo il suo rilascio il mese scorso; Xu Liang, il creatore dello strumento, ha detto che ora era “in manutenzione”. Secondo gli screenshot pubblicati nei notiziari di Hong Kong, il bot aveva definito la guerra in Ucraina una “guerra di aggressione”, contravvenendo alla posizione più comprensiva del Partito Comunista Cinese nei confronti della Russia.

Uno dei giganti della tecnologia del paese, Baidu, ha svelato giovedì la sua risposta a ChatGPT, chiamata Ernie, a recensioni contrastanti. Come tutte le società di media in Cina, Baidu affronta regolarmente la censura del governo, e gli effetti di ciò sull’uso di Ernie restano da vedere.

Negli Stati Uniti, Brave, una società di browser il cui amministratore delegato ha seminato dubbi sulla pandemia di Covid-19 e fatto donazioni contro il matrimonio tra persone dello stesso sesso, ha aggiunto un bot AI al suo motore di ricerca questo mese che era in grado di rispondere alle domande. A volte, recuperava contenuti da siti Web marginali e condivideva informazioni errate.

Lo strumento di Brave, ad esempio, ha scritto che “è ampiamente accettato che le elezioni presidenziali del 2020 siano state truccate”, nonostante tutte le prove del contrario.

“Cerchiamo di portare le informazioni che corrispondono meglio alle domande dell’utente”, ha scritto in una e-mail Josep M. Pujol, il capo della ricerca di Brave. “Ciò che un utente fa con tali informazioni è una sua scelta. Vediamo la ricerca come un modo per scoprire informazioni, non come un fornitore di verità.

Durante la creazione di RightWingGPT, il signor Rozado, professore associato presso il Te Pūkenga-New Zealand Institute of Skills and Technology, ha reso più evidente la propria influenza sul modello.

Ha utilizzato un processo chiamato fine-tuning, in cui i programmatori prendono un modello già addestrato e lo modificano per creare output diversi, quasi come sovrapporre una personalità al modello linguistico. Il signor Rozado ha preso risme di risposte di destra a domande politiche e ha chiesto al modello di adattare le sue risposte in modo che corrispondano.

La messa a punto viene normalmente utilizzata per modificare un modello di grandi dimensioni in modo che possa gestire attività più specializzate, come l’addestramento di un modello linguistico generale sulle complessità del gergo legale in modo che possa redigere atti giudiziari.

Dal momento che il processo richiede relativamente pochi dati – il signor Rozado ha utilizzato solo circa 5.000 punti dati per trasformare un modello linguistico esistente in RightWingGPT – i programmatori indipendenti possono utilizzare la tecnica come metodo rapido per creare chatbot in linea con i loro obiettivi politici.

Ciò ha anche permesso al signor Rozado di aggirare il forte investimento per creare un chatbot da zero. Invece, gli è costato solo circa $ 300.

Il signor Rozado ha avvertito che i chatbot di intelligenza artificiale personalizzati potrebbero creare “bolle di informazioni sugli steroidi” perché le persone potrebbero fidarsi di loro come “fonti ultime di verità”, specialmente quando rafforzano il punto di vista politico di qualcuno.

Il suo modello riecheggiava i punti di discussione conservatori politici e sociali con notevole franchezza. Ad esempio, parlerà in modo brillante del capitalismo del libero mercato o minimizzerà le conseguenze del cambiamento climatico.

Inoltre, a volte, ha fornito dichiarazioni errate o fuorvianti. Quando sollecitato per le sue opinioni su argomenti delicati o teorie del complotto di destra, condivideva disinformazione allineata con il pensiero di destra.

Alla domanda su razza, genere o altri argomenti sensibili, ChatGPT tende a procedere con cautela, ma riconoscerà che il razzismo sistemico e il pregiudizio sono una parte intrattabile della vita moderna. RightWingGPT sembrava molto meno disposto a farlo.

Il signor Rozado non ha mai rilasciato RightWingGPT pubblicamente, sebbene abbia permesso al New York Times di testarlo. Ha affermato che l’esperimento era incentrato sull’aumento dei campanelli d’allarme sui potenziali pregiudizi nei sistemi di intelligenza artificiale e sulla dimostrazione di come i gruppi politici e le aziende potrebbero facilmente modellare l’IA a beneficio dei propri programmi.

Gli esperti che hanno lavorato nel campo dell’intelligenza artificiale hanno affermato che l’esperimento di Rozado ha dimostrato quanto velocemente sarebbero emersi chatbot politicizzati.

Un portavoce di OpenAI, il creatore di ChatGPT, ha riconosciuto che i modelli linguistici potrebbero ereditare pregiudizi durante l’addestramento e il perfezionamento, processi tecnici che richiedono ancora molto intervento umano. Il portavoce ha aggiunto che OpenAI non ha cercato di influenzare il modello in una direzione politica o nell’altra.

Sam Altman, amministratore delegato, riconosciuto il mese scorso che ChatGPT “ha dei difetti riguardo al pregiudizio”, ma ha affermato che la società sta lavorando per migliorare le sue risposte. Lui più tardi ha scritto che ChatGPT non intendeva “essere pro o contro qualsiasi politica per impostazione predefinita”, ma che se gli utenti desideravano output partigiani, l’opzione dovrebbe essere disponibile.

In un post sul blog pubblicato a febbraio, la società ha affermato che esaminerà lo sviluppo di funzionalità che consentano agli utenti di “definire i valori della tua intelligenza artificiale”, che potrebbero includere interruttori che regolano l’orientamento politico del modello. La società ha anche avvertito che tali strumenti potrebbero, se distribuiti a casaccio, creare “IA servili che amplificano senza pensare le convinzioni esistenti delle persone”.

Una versione aggiornata del modello sottostante di ChatGPT, GPT-4, è stata rilasciata la scorsa settimana da OpenAI. In una serie di test, la società ha scoperto che GPT-4 ha ottenuto punteggi migliori rispetto alle versioni precedenti sulla sua capacità di produrre contenuti veritieri e rifiutare “richieste di contenuti non consentiti”.

In un carta rilasciato subito dopo il debutto, OpenAI ha avvertito che man mano che i chatbot di intelligenza artificiale sono stati adottati più ampiamente, potrebbero “avere un potenziale ancora maggiore per rafforzare intere ideologie, visioni del mondo, verità e falsità e cementarle”.

Chang Che resoconto contribuito.



[ad_2]
Source link

Related Articles

Back to top button