Wozniak, Musk e importanti ricercatori sollecitano una pausa sull'IA "fuori controllo".

Una nuova lettera aperta firmata dai leader tecnologici sollecita una pausa di sei mesi sullo sviluppo di applicazioni avanzate di intelligenza artificiale che potrebbero rappresentare "profondi rischi per la società e l'umanità".

Il co-fondatore di Apple Steve Wozniak, il CEO di Tesla Elon Musk, altri dirigenti tecnologici e molti accademici di intelligenza artificiale hanno firmato la lettera. Esorta cautela riguardo all'IA "emergente" più potente di GPT-4. Non stiamo parlando di Siri qui (almeno non ancora).

La lettera aperta sollecita una pausa per una pianificazione più attenta per gestire l'IA avanzata

La lettera apparso sul sito web del Future of Life Institute e ha attirato più di 1.123 firme a partire da mercoledì. Non richiede una pausa TuttoSviluppo dell'intelligenza artificiale, solo "modelli di scatole nere imprevedibili sempre più grandi con capacità emergenti".

"Chiediamo a tutti i laboratori di intelligenza artificiale di sospendere immediatamente per almeno 6 mesi l'addestramento di sistemi di intelligenza artificiale più potenti di GPT-4", ha affermato. Ha aggiunto la pausa "dovrebbe essere pubblico e verificabile". E se non accade rapidamente, "i governi dovrebbero intervenire e istituire una moratoria".

“Gara fuori controllo”

La lettera descriveva lo sviluppo dell'IA come fuori controllo, rischioso, imprevedibile e persino al di là della comprensione per i suoi stessi creatori, grazie alla forte concorrenza. Ha citato il Asilomar AI Principi sviluppato alla Beneficial AI Conference nel 2017:

Come affermato nei Principi Asilomar AI ampiamente approvati, L'intelligenza artificiale avanzata potrebbe rappresentare un profondo cambiamento nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cure e risorse adeguate. Sfortunatamente, questo livello di pianificazione e gestione non sta accadendo, anche se negli ultimi mesi i laboratori di intelligenza artificiale sono stati bloccati in un ambiente fuori controllo correre per sviluppare e implementare menti digitali sempre più potenti che nessuno, nemmeno i loro creatori, può comprendere, prevedere o in modo affidabile controllo.

Dovrebbe facciamo anche questo?

I firmatari hanno posto una serie di domande che hanno sottolineato le persone Dovrebbe chiedere prima di andare avanti con lo sviluppo dell'IA. La lettera faceva anche riferimento al potere dell'IA di togliere molti tipi di posti di lavoro a diversi livelli, non solo compiti semplici e ripetitivi.

Dovrebbe lasciamo che le macchine inondino i nostri canali di informazione con propaganda e falsità? Dovrebbe automatizziamo tutti i lavori, compresi quelli soddisfacenti? Dovrebbe sviluppiamo menti non umane che alla fine potrebbero essere più numerose, superate in astuzia, obsolete e sostituirci? Dovrebbe rischiamo di perdere il controllo della nostra civiltà? Tali decisioni non devono essere delegate a leader tecnologici non eletti. Potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo certi che i loro effetti saranno positivi e i loro rischi saranno gestibili.

Anche lo sviluppatore di AI bot ChatGPT lo ha suggerito

La lettera sottolineava che lo sviluppatore di ChatGPT OpenAI in precedenza notato che una pausa potrebbe diventare necessaria.

La recente dichiarazione di OpenAI sull'intelligenza artificiale generale afferma che "Ad un certo punto, potrebbe essere importante ottenere prima una revisione indipendente iniziando ad addestrare i sistemi futuri e per gli sforzi più avanzati per concordare di limitare il tasso di crescita del calcolo utilizzato per la creazione di nuovi modelli. Noi Essere d'accordo. Quel punto è adesso.

Effetti positivi e rischi gestibili

Oltre agli effetti positivi e ai rischi gestibili sopra menzionati, l'obiettivo di una pausa è riassunto nella lettera in questo modo:

La ricerca e lo sviluppo dell'IA dovrebbero essere riorientati per rendere i sistemi potenti e all'avanguardia di oggi più accurati, sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leali.

E la lettera proseguiva descrivendo le salvaguardie necessarie attraverso i sistemi di governance sviluppati in collaborazione con i responsabili politici.

Gli sviluppatori di intelligenza artificiale devono collaborare con i responsabili politici per accelerare drasticamente lo sviluppo di solidi sistemi di governance dell'IA. Questi dovrebbero come minimo includere: autorità di regolamentazione nuove e capaci dedicate all'IA; supervisione e tracciamento di sistemi di intelligenza artificiale altamente capaci e ampi pool di capacità computazionali; sistemi di provenienza e watermarking per aiutare a distinguere il reale dal sintetico e per tenere traccia delle fughe di modelli; un solido ecosistema di audit e certificazione; responsabilità per danni causati dall'IA; solidi finanziamenti pubblici per la ricerca tecnica sulla sicurezza dell'IA; e istituzioni dotate di risorse adeguate per far fronte alle drammatiche perturbazioni economiche e politiche (soprattutto per la democrazia) che l'IA causerà.

Sei d'accordo che sia necessaria una pausa per considerare e pianificare l'IA avanzata? Sentiti libero di commentare qui sotto.

Ultimo post sul blog

| Culto di Mac
October 21, 2021

Le azioni di Apple crollano dopo che il produttore di chip per iPhone ha tagliato le previsioni di venditaVolevo un Galaxy S10, ma sono bloccato co...

| Culto di Mac
October 21, 2021

Libera la mente dai problemi di privacy con una VPN totalmente zen [Offerte]Ottieni la massima tranquillità online con questa VPN potente e versati...

Tutte le nuove funzionalità aggiunte da Apple in iOS 10.3 beta 1
October 21, 2021

Tutto nuovo in iOS 10.3: tastiera nascosta, cercatore AirPods e altroC'è molto da amare in iOS 10.3.Foto: Ste Smith/Culto di MacIeri Apple ha dato ...