Wozniak, Musk in vodilni raziskovalci pozivajo k premoru z umetno inteligenco, ki je 'izven nadzora'

Novo odprto pismo, ki so ga podpisali tehnološki voditelji, poziva k šestmesečnemu premoru pri razvoju naprednih aplikacij umetne inteligence, ki lahko predstavljajo "veliko tveganje za družbo in človeštvo".

Pismo so podpisali soustanovitelj Appla Steve Wozniak, izvršni direktor Tesle Elon Musk, drugi tehnični vodje in številni akademiki AI. Poziva k previdnosti glede "nastajajoče" umetne inteligence, zmogljivejše od GPT-4. Tukaj ne govorimo o Siri (vsaj še ne).

Odprto pismo poziva k premoru za skrbnejše načrtovanje upravljanja napredne umetne inteligence

Pismo pojavil na spletni strani Inštituta prihodnosti življenja in je do srede zbrala več kot 1123 podpisov. Ne zahteva premora vserazvoj AI, samo "vedno večji nepredvidljivi modeli črne skrinjice z nastajajočimi zmogljivostmi."

"Vse laboratorije AI pozivamo, naj nemudoma za vsaj 6 mesecev ustavijo usposabljanje sistemov AI, zmogljivejših od GPT-4," so zapisali. Dodal je, da mora biti premor javen in preverljiv. In če se to ne zgodi hitro, bi morale "vlade ukrepati in uvesti moratorij."

"Dirka brez nadzora"

Pismo je razvoj umetne inteligence opisalo kot nenadzorovanega, tveganega, nepredvidljivega in celo nerazumljivega za lastne izdelovalce, zahvaljujoč živahni konkurenci. Navajalo je Načela Asilomar AI razvit na konferenci Beneficial AI Conference leta 2017:

Kot je navedeno v splošno sprejetih načelih AI Asilomar, Napredna umetna inteligenca bi lahko predstavljala globoko spremembo v zgodovini življenja na Zemlji, zato bi jo bilo treba načrtovati in upravljati s sorazmerno skrbnostjo in sredstvi. Na žalost se ta raven načrtovanja in upravljanja ne dogaja, čeprav so bili v zadnjih mesecih laboratoriji umetne inteligence umaknjeni izpod nadzora. dirka za razvoj in uvajanje vedno močnejših digitalnih umov, ki jih nihče – niti njihovi ustvarjalci – ne more razumeti, predvideti ali zanesljivo nadzor.

Moral bi to sploh počnemo?

Podpisniki zastavili številna vprašanja, na katera so poudarili ljudi naj vprašajte, preden začnete z razvojem umetne inteligence. Pismo se je sklicevalo tudi na moč umetne inteligence, da odvzame številne vrste delovnih mest na različnih ravneh, ne le preprostih, ponavljajočih se nalog.

Moral bi pustimo, da stroji preplavijo naše informacijske kanale s propagando in neresnico? Moral bi avtomatiziramo vsa opravila, vključno s tistimi, ki izpolnjujejo zahteve? Moral bi razvijamo nečloveške ume, ki bi nas lahko sčasoma presegli, prelisičili, zastareli in nadomestili? Moral bi tvegamo izgubo nadzora nad našo civilizacijo? Takih odločitev se ne sme prenesti na neizvoljene tehnološke voditelje. Zmogljive sisteme umetne inteligence je treba razviti šele, ko smo prepričani, da bodo njihovi učinki pozitivni in da bodo njihova tveganja obvladljiva.

Celo razvijalec bota AI ChatGPT je to predlagal

Pismo je poudarilo, da je ChatGPT razvijalec OpenAI prej opozoriti, da bo morda potreben premor.

Nedavna izjava OpenAI v zvezi s splošno umetno inteligenco navaja, da bo »v določenem trenutku morda pomembno, da prejmete neodvisen pregled, preden začeti usposabljati prihodnje sisteme in za najnaprednejša prizadevanja za dogovor o omejitvi stopnje rasti računalništva, ki se uporablja za ustvarjanje novih modelov.« mi strinjam se. Ta točka je zdaj.

Pozitivni učinki in obvladljiva tveganja

Poleg zgoraj omenjenih pozitivnih učinkov in obvladljivih tveganj je cilj premora v pismu povzet takole:

Raziskave in razvoj umetne inteligence je treba preusmeriti na to, da bodo današnji zmogljivi, najsodobnejši sistemi bolj natančni, varni, razumljivi, pregledni, robustni, usklajeni, zaupanja vredni in zvesti.

Pismo je nato opisalo potrebne zaščitne ukrepe prek sistemov upravljanja, razvitih v sodelovanju z oblikovalci politik.

Razvijalci umetne inteligence morajo sodelovati z oblikovalci politik, da dramatično pospešijo razvoj robustnih sistemov upravljanja umetne inteligence. Ti bi morali vključevati vsaj: nove in sposobne regulativne organe, namenjene umetni inteligenci; nadzor in sledenje zelo zmogljivih sistemov umetne inteligence in velikih skupin računalniških zmogljivosti; sistemi izvora in vodnih žigov za pomoč pri razlikovanju pravega od sintetičnega in za sledenje uhajanju modelov; trden revizijski in certifikacijski ekosistem; odgovornost za škodo, povzročeno z umetno inteligenco; močno javno financiranje tehničnih varnostnih raziskav umetne inteligence; in institucije z dobrimi viri za spopadanje z dramatičnimi gospodarskimi in političnimi motnjami (zlasti v demokraciji), ki jih bo povzročila umetna inteligenca.

Ali se strinjate, da je potreben premor za razmislek in načrtovanje napredne umetne inteligence? Spodaj lahko komentirate.

Najnovejša objava v spletnem dnevniku

Korejski prevozniki upajo, da bodo "prepričali" Apple, da bodo razširili podporo za LTE za iPhone 5
September 11, 2021

Korejski operaterji SK Telecom in KT sta razkrila, da se trenutno pogovarjata z Appleom o podpori naslednjega iPhonea v svojih 800 MHz in 1800 MHz ...

Ker Apple uspeva, Samsung pade na Kitajsko
September 11, 2021

Ker Apple uspeva, Samsung pade na KitajskoSamsungov boj se nadaljuje na Kitajskem. Foto: Killian Bell/Kult AndroidaKot iPhone postaja vse bolj pril...

| Kult Mac
September 11, 2021

Skrivnostni iPhone, opažen v kodi Apple, namiguje na presenetljivo osvežitevTo je odličen čas za nakup starejših naprav Apple.Foto: Ste Smith/Cult ...