Vozņaks, Musks un vadošie pētnieki mudina apturēt “ārpus kontroles” AI

Jaunā atklātā vēstulē, ko parakstījuši tehnoloģiju vadītāji, tiek mudināts uz sešiem mēnešiem pārtraukt progresīvu mākslīgā intelekta lietojumprogrammu izstrādi, kas var radīt "nopietnus riskus sabiedrībai un cilvēcei".

Apple līdzdibinātājs Stīvs Vozņaks, Tesla izpilddirektors Elons Masks, citi tehnoloģiju vadītāji un daudzi AI akadēmiķi parakstīja vēstuli. Tas mudina būt piesardzīgiem attiecībā uz “jauno” AI, kas ir jaudīgāks par GPT-4. Mēs šeit nerunājam par Siri (vismaz vēl ne).

Atklātā vēstulē mudina pārtraukt rūpīgāku progresa AI pārvaldības plānošanu

Vēstule parādījās Future of Life Institute tīmekļa vietnē un trešdien piesaistīja vairāk nekā 1123 parakstus. Tas neprasa pauzi visiAI attīstība, tikai "arvien lielāki neparedzami melnās kastes modeļi ar jaunām iespējām."

"Mēs aicinām visas mākslīgā intelekta laboratorijas nekavējoties vismaz uz 6 mēnešiem apturēt tādu AI sistēmu apmācību, kuras ir jaudīgākas par GPT-4," teikts tajā. Tajā tika pievienota pauze "jābūt publiskai un pārbaudāmai". Un, ja tas nenotiek ātri, “valdībām ir jāiejaucas un jāievieš moratorijs”.

"Ārpus kontroles sacensības"

Vēstulē AI attīstība tika aprakstīta kā nekontrolējama, riskanta, neprognozējama un, pateicoties spēcīgajai konkurencei, pat tās veidotājiem nav saprotama. Tajā bija minēts Asilomar AI principi izstrādāts Beneficial AI konferencē 2017. gadā:

Kā teikts plaši atbalstītajos Asilomar AI principos, Uzlabots mākslīgais intelekts varētu radīt pamatīgas izmaiņas Zemes dzīvības vēsturē, un tas būtu jāplāno un jāpārvalda ar atbilstošu aprūpi un resursiem. Diemžēl šāda līmeņa plānošana un pārvaldība nenotiek, lai gan pēdējos mēnešos AI laboratorijas ir bloķētas ārpus kontroles. sacensties, lai izstrādātu un ieviestu arvien jaudīgākus digitālos prātus, kurus neviens – pat ne to veidotāji – nevar saprast, paredzēt vai uzticami kontrole.

Vajadzētu mēs pat to darām?

Parakstītāji uzdeva vairākus jautājumus, kurus viņi uzsvēra cilvēkiem vajadzētu jautājiet, pirms sākat uzlādēt AI attīstību. Vēstulē bija arī atsauce uz AI spējām atņemt daudzu veidu darbus dažādos līmeņos, ne tikai vienkāršus, atkārtotus uzdevumus.

Vajadzētu mēs ļaujam mašīnām pārpludināt mūsu informācijas kanālus ar propagandu un nepatiesību? Vajadzētu mēs automatizējam visus darbus, tostarp izpildāmos? Vajadzētu mēs attīstām necilvēciskus prātus, kas galu galā varētu pārspēt, pārspēt, novecot un aizstāt mūs? Vajadzētu mēs riskējam zaudēt kontroli pār savu civilizāciju? Šādus lēmumus nedrīkst deleģēt neievēlētiem tehnoloģiju vadītājiem. Jaudīgas AI sistēmas ir jāizstrādā tikai tad, kad esam pārliecināti, ka to ietekme būs pozitīva un to riski būs pārvaldāmi.

Pat AI robota ChatGPT izstrādātājs to ieteica

Vēstulē tika norādīts, ka ChatGPT izstrādātājs OpenAI iepriekš atzīmēja, ka var būt nepieciešama pauze.

OpenAI nesenajā paziņojumā par mākslīgo vispārējo intelektu teikts, ka "kādā brīdī var būt svarīgi iegūt neatkarīgu pārbaudi pirms sākt apmācīt nākotnes sistēmas un visprogresīvākos centienus vienoties par jaunu modeļu izveidei izmantoto aprēķinu pieauguma tempa ierobežošanu. Mēs piekrītu. Tas punkts ir tagad.

Pozitīva ietekme un pārvaldāmi riski

Papildus iepriekš minētajiem pozitīvajiem efektiem un pārvaldāmajiem riskiem, pauzes mērķis vēstulē ir apkopots šādi:

AI pētniecība un izstrāde būtu jākoncentrē uz to, lai padarītu mūsdienu jaudīgākās, modernākās sistēmas precīzākas, drošākas, interpretējamas, pārredzamākas, izturīgākas, saskaņotākas, uzticamākas un lojālākas.

Un vēstulē tika aprakstīti nepieciešamie aizsardzības pasākumi, izmantojot pārvaldības sistēmas, kas izstrādātas sadarbībā ar politikas veidotājiem.

AI izstrādātājiem ir jāsadarbojas ar politikas veidotājiem, lai ievērojami paātrinātu stabilu AI pārvaldības sistēmu izstrādi. Tajos jāietver vismaz: jaunas un spējīgas regulatīvās iestādes, kas nodarbojas ar mākslīgo intelektu; augsti spējīgu AI sistēmu un lielu skaitļošanas iespēju kopu uzraudzība un izsekošana; izcelsmes un ūdenszīmju sistēmas, lai palīdzētu atšķirt īstu no sintētiskā un izsekot modeļa noplūdēm; spēcīga audita un sertifikācijas ekosistēma; atbildība par mākslīgā intelekta radīto kaitējumu; spēcīgs publiskais finansējums tehniskajai AI drošības izpētei; un labi resursiem bagātas institūcijas, lai tiktu galā ar dramatiskajiem ekonomiskajiem un politiskajiem traucējumiem (īpaši demokrātijai), ko radīs AI.

Vai piekrītat, ka ir nepieciešama pauze, lai apsvērtu un plānotu progresīvu AI? Jūtieties brīvi komentēt zemāk.

Jaunākais emuāra ziņojums

Ikdienas piedāvājumi par Apple rīkiem un citiem tehnoloģiju produktiem
August 20, 2021

Uzlabojiet savu golfa spēli, izmantojot savu iPhone un GoGolf [piedāvājumi]Uzlabojiet savu golfa spēli ar šo īpaši pārnēsājamo tālmēru.Foto: Mac pi...

| Mac kults
August 20, 2021

Kā izmantot iOS 12 jauno mērīšanas lietotni, lai izmērītu praktiski jebkoApple lietotne Measure pilnībā valda.Foto: Čārlijs Sorels/Mac kultsIOS 12 ...

| Mac kults
August 20, 2021

IPhone 3GS būs Apple 0 USD vērtais iPhoneIPhone 3GS. Creative Commons licencēts Fr3d fotoattēls: http://www.flickr.com/photos/fr3d/2660915827/Vai A...