We need to start wrestling with the ethics of AI agents
Prabhakar ha avuto un ruolo determinante nell’approvazione dell’Ordine Esecutivo del Presidente del 2023 sull’intelligenza artificiale, che stabilisce regole per le aziende tecnologiche per rendere l’intelligenza artificiale più sicura e trasparente (sebbene si basi sulla partecipazione volontaria). Prima di prestare servizio nel gabinetto del presidente Biden, ha ricoperto numerosi incarichi governativi, dalla lotta per la produzione nazionale di semiconduttori alla guida della DARPA, il famoso braccio di ricerca del Pentagono.
Ho avuto la possibilità di parlare con Prabhakar all’inizio di questo mese. Abbiamo discusso dei rischi legati all’intelligenza artificiale, della politica sull’immigrazione, del CHIPS Act, della fiducia del pubblico nella scienza e di come tutto questo potrebbe cambiare sotto Trump.
Il cambio di gestione arriva in un momento caotico per l’intelligenza artificiale. Il team di Trump non ha presentato una posizione chiara su come gestirà l’intelligenza artificiale, ma molti membri del team vogliono che l’ordine esecutivo venga smantellato. Trump lo aveva già detto a luglio, quando aveva approvato la proposta Piattaforma repubblicana secondo cui l’ordine esecutivo “ostacola l’innovazione dell’intelligenza artificiale e impone idee di sinistra radicale sullo sviluppo di questa tecnologia”. Potenti attori del settore come il venture capitalist Marc Andreessen hanno affermato di sostenere l’iniziativa. A complicare la storia, tuttavia, sarà Elon Muskche da anni esprime timori sugli scenari apocalittici dell’IA ed è favorevole a una serie di regolamenti volti a promuovere la sicurezza dell’IA. Nessuno sa esattamente cosa accadrà, ma Prabhakar ha molti pensieri su ciò che è successo finora.
Per i suoi approfondimenti sugli sviluppi chiave dell’IA della precedente amministrazione e su cosa potrebbe accadere nella prossima amministrazione, leggi la mia conversazione con Arati Prabhakar.
Apprendimento più profondo
Questi personaggi AI di Minecraft hanno fatto strane cose umane da soli
Il videogioco Minecraft sta diventando sempre più popolare come banco di prova per modelli e agenti IA. Questa è una startup di tendenza che Altera ha recentemente abbracciato. Hanno liberato fino a 1.000 agenti software contemporaneamente, alimentati da modelli linguistici di grandi dimensioni (LLM), per comunicare tra loro. Con una semplice spinta tramite messaggi di testo, hanno sviluppato una notevole gamma di tratti della personalità, preferenze e ruoli specialistici, senza ulteriori input da parte dei loro creatori umani. Sorprendentemente, hanno fatto spontaneamente amicizia, hanno inventato lavori e hanno persino diffuso la religione.
Perché questo è importante: Gli agenti IA possono eseguire compiti, dimostrare autonomia e prendere iniziative in ambienti digitali. Questo è un altro esempio di come il comportamento di tali agenti, con un minimo aiuto umano, possa essere allo stesso tempo impressionante e decisamente bizzarro. Le persone che lavorano per portare gli agenti nel mondo hanno ambizioni audaci nei loro confronti. Il fondatore di Altera, Robert Yang, vede gli esperimenti di Minecraft come un primo passo verso “civiltà AI” su larga scala con agenti che possono coesistere e collaborare con noi negli spazi digitali. “Il vero potere dell’intelligenza artificiale verrà sbloccato quando disponiamo di agenti veramente autonomi in grado di collaborare su larga scala”, afferma Yang. Leggi di più da Niall Firth.
Bit e byte
OpenAI indaga sulla pubblicità