Wozniak, Musk en vooraanstaande onderzoekers dringen aan op pauze over 'uit de hand gelopen' AI

Een nieuwe open brief, ondertekend door technologieleiders, dringt aan op een pauze van zes maanden bij de ontwikkeling van geavanceerde kunstmatige-intelligentietoepassingen die "ernstige risico's voor de samenleving en de mensheid" kunnen vormen.

Mede-oprichter van Apple Steve Wozniak, Tesla-CEO Elon Musk, andere tech-execs en vele AI-academici ondertekenden de brief. Het dringt aan op voorzichtigheid met betrekking tot "opkomende" AI die krachtiger is dan GPT-4. We hebben het hier niet over Siri (althans nog niet).

Open brief dringt aan op pauze voor meer zorgvuldige planning om geavanceerde AI te beheren

De brief verscheen op de website van het Future of Life Institute en trok vanaf woensdag meer dan 1.123 handtekeningen. Het vraagt ​​niet om een ​​pauze alleAI-ontwikkeling, gewoon "steeds grotere onvoorspelbare black-box-modellen met opkomende mogelijkheden."

"We roepen alle AI-labs op om de training van AI-systemen die krachtiger zijn dan GPT-4 onmiddellijk voor ten minste 6 maanden te onderbreken", aldus de verklaring. Het voegde de pauze toe "zou openbaar en verifieerbaar moeten zijn." En als het niet snel gebeurt, “moeten regeringen ingrijpen en een moratorium instellen”.

'Uit de hand gelopen race'

De brief beschreef de ontwikkeling van AI als uit de hand gelopen, riskant, onvoorspelbaar en zelfs onbegrijpelijk voor de eigen makers, dankzij de stevige concurrentie. Het citeerde de Asilomar AI-principes ontwikkeld op de Beneficial AI Conference in 2017:

Zoals vermeld in de alom onderschreven Asilomar AI-principes, Geavanceerde AI zou een ingrijpende verandering in de geschiedenis van het leven op aarde kunnen betekenen, en moet worden gepland en beheerd met passende zorg en middelen. Helaas gebeurt dit niveau van planning en beheer niet, ook al zijn de AI-labs de afgelopen maanden opgesloten in een uit de hand gelopen race om steeds krachtigere digitale geesten te ontwikkelen en in te zetten die niemand - zelfs niet hun makers - kan begrijpen, voorspellen of betrouwbaar is controle.

Zou moeten doen we dit zelfs?

De ondertekenaars stelden een aantal vragen waarbij ze de nadruk legden op mensen zou moeten vragen voordat u verder gaat met AI-ontwikkeling. De brief verwees ook naar de kracht van AI om veel soorten banen op verschillende niveaus weg te nemen, niet alleen eenvoudige, repetitieve taken.

Zou moeten we machines onze informatiekanalen laten overspoelen met propaganda en onwaarheid? Zou moeten we alle banen automatiseren, inclusief de vervullende? Zou moeten we niet-menselijke geesten ontwikkelen die ons uiteindelijk in aantal kunnen overtreffen, te slim af zijn, achterhaald zijn en ons kunnen vervangen? Zou moeten riskeren we de controle over onze beschaving te verliezen? Dergelijke beslissingen mogen niet worden gedelegeerd aan niet-gekozen technologieleiders. Krachtige AI-systemen mogen pas worden ontwikkeld als we er zeker van zijn dat hun effecten positief zullen zijn en dat hun risico's beheersbaar zullen zijn.

Zelfs de ontwikkelaar van AI bot ChatGPT stelde het voor

In de brief werd erop gewezen dat ChatGPT-ontwikkelaar OpenAI eerder merkte op dat een pauze nodig kan zijn.

In de recente verklaring van OpenAI met betrekking tot kunstmatige algemene intelligentie staat: “Op een gegeven moment kan het belangrijk zijn om onafhankelijke beoordeling te krijgen voordat beginnen met het trainen van toekomstige systemen, en voor de meest geavanceerde inspanningen om overeen te komen om de groeisnelheid van de rekenkracht die wordt gebruikt voor het maken van nieuwe modellen te beperken. Wij mee eens zijn. Dat punt is nu.

Positieve effecten en beheersbare risico's

Naast de hierboven genoemde positieve effecten en beheersbare risico's, wordt het doel van een pauze in de brief als volgt samengevat:

AI-onderzoek en -ontwikkeling moeten opnieuw worden gericht op het nauwkeuriger, veiliger, interpreteerbaar, transparant, robuust, afgestemd, betrouwbaar en loyaal maken van de krachtige, geavanceerde systemen van vandaag.

En de brief beschrijft verder de noodzakelijke waarborgen door middel van governancesystemen die zijn ontwikkeld in samenwerking met beleidsmakers.

AI-ontwikkelaars moeten samenwerken met beleidsmakers om de ontwikkeling van robuuste AI-governancesystemen drastisch te versnellen. Deze moeten ten minste het volgende omvatten: nieuwe en capabele regelgevende instanties die zich toeleggen op AI; toezicht houden op en volgen van zeer capabele AI-systemen en grote pools van rekencapaciteit; herkomst- en watermerksystemen om echt van synthetisch te onderscheiden en modellekken op te sporen; een robuust audit- en certificeringsecosysteem; aansprakelijkheid voor door AI veroorzaakte schade; robuuste overheidsfinanciering voor technisch AI-veiligheidsonderzoek; en goed toegeruste instellingen om het hoofd te bieden aan de dramatische economische en politieke ontwrichtingen (vooral voor de democratie) die AI zal veroorzaken.

Bent u het ermee eens dat een pauze om geavanceerde AI te overwegen en te plannen noodzakelijk is? Reageer gerust hieronder.

Laatste blogbericht

De iMac zal niet achterblijven wanneer Apple Retina Display-upgrades uitdeelt [Gerucht]
September 10, 2021

De iMac blijft niet achter wanneer Apple upgrades voor het Retina-display uitdeelt [Gerucht]De iMac zou kunnen aansluiten bij Apple's MacBook Pro's...

| Cult van Mac
September 10, 2021

Woz: 'De toekomst is eng en heel slecht voor mensen'Woz, die zijn deel doet om computers te helpen de wereld over te nemen. Foto: AppelTech-pionier...

| Cult van Mac
September 10, 2021

Vergeet hersens, dit zombiespel verslindt collegegeldGus Dubetz en Ethan Witt verdienen geld voor de universiteit met hun ROBLOX-game Apocalyps sti...