Вознијак, Муск и водећи истраживачи позивају на паузу на вештачкој интелигенцији која је ван контроле

У новом отвореном писму које су потписали технолошки лидери позива се на шестомесечну паузу у развоју напредних апликација вештачке интелигенције које могу представљати „дубоке ризике за друштво и човечанство“.

Суоснивач Аппле-а Стив Вознијак, извршни директор Тесле Елон Муск, други технички руководиоци и многи академици вештачке интелигенције потписали су писмо. Позива се на опрез у погледу „настале“ вештачке интелигенције која је моћнија од ГПТ-4. Овде не говоримо о Сири (барем не још).

Отворено писмо позива на паузу за пажљивије планирање управљања напредном вештачком интелигенцијом

Писмо појавио на сајту Института за будућност живота и привукао је више од 1.123 потписа закључно са средом. Не захтева паузу свеРазвој вештачке интелигенције, само „све већи непредвидиви модели црне кутије са новим могућностима“.

„Позивамо све лабораторије за вештачку интелигенцију да одмах паузирају на најмање 6 месеци обуку АИ система моћнијих од ГПТ-4“, наводи се. Додаје се да пауза „треба да буде јавна и проверљива“. А ако се то не догоди брзо, „владе би требало да се умешају и уведу мораторијум“.

„Трка ван контроле“

У писму се описује развој вештачке интелигенције као ван контроле, ризичан, непредвидив и чак неразумљив за сопствене креаторе, захваљујући оштрој конкуренцији. Цитирао је Асиломар АИ Принципи развијено на Бенефициал АИ конференцији 2017:

Као што је наведено у широко прихваћеним принципима Асиломар АИ, Напредна вештачка интелигенција могла би да представља дубоку промену у историји живота на Земљи, и требало би да се планира и да се њиме управља са сразмерном пажњом и ресурсима. Нажалост, овај ниво планирања и управљања се не дешава, иако смо последњих месеци видели да су лабораторије вештачке интелигенције закључане ван контроле утркују се у развоју и примени све моћнијих дигиталних умова које нико – чак ни њихови креатори – не може да разуме, предвиди или поуздано контролу.

Требало би чак и ово радимо?

Потписници су поставили низ питања на која су људи истицали требало би питајте пре него што почнете да развијате вештачку интелигенцију. Писмо се такође односи на моћ вештачке интелигенције да одузме многе врсте послова на различитим нивоима, а не само једноставне задатке који се понављају.

Требало би пуштамо машине да преплаве наше информативне канале пропагандом и неистином? Требало би аутоматизујемо све послове, укључујући и оне који испуњавају? Требало би развијамо нељудске умове који би нас евентуално могли надмашити, надмудрити, застарели и заменити нас? Требало би ризикујемо да изгубимо контролу над нашом цивилизацијом? Такве одлуке не смеју бити делегиране неизабраним технолошким лидерима. Моћне АИ системе треба развијати тек када будемо сигурни да ће њихови ефекти бити позитивни и да ће се њихови ризици моћи управљати.

Чак је и програмер АИ бота ЦхатГПТ-а то предложио

У писму је истакнуто да је ЦхатГПТ програмер ОпенАИ раније приметио да би пауза могла бити неопходна.

Недавна изјава ОпенАИ-а у вези са вештачком општом интелигенцијом каже да „у неком тренутку може бити важно да добијете независну ревизију пре почевши да обучава будуће системе, и за најнапредније напоре да се договоримо да ограничимо стопу раста рачунара који се користи за креирање нових модела.” Ми договорити се. Та тачка је сада.

Позитивни ефекти и ризици којима се може управљати

Поред горе наведених позитивних ефеката и ризика којима се може управљати, циљ паузе је сажет у писму овако:

Истраживање и развој вештачке интелигенције требало би да се поново фокусира на то да данашњи моћни, најсавременији системи буду тачнији, безбеднији, разумљиви, транспарентни, робусни, усклађени, поуздани и лојални.

А писмо је даље описивало неопходне мере заштите кроз системе управљања развијене у сарадњи са креаторима политике.

Програмери вештачке интелигенције морају да раде са креаторима политике како би драматично убрзали развој робусних система управљања вештачком интелигенцијом. То би требало да укључује најмање: нове и способне регулаторне органе посвећене АИ; надзор и праћење високо способних система вештачке интелигенције и велике групе рачунарских способности; системи порекла и воденог жига који помажу у разликовању стварног од синтетичког и за праћење цурења модела; робустан екосистем ревизије и сертификације; одговорност за штету изазвану АИ; снажно јавно финансирање техничког истраживања безбедности вештачке интелигенције; и институције са добрим ресурсима за суочавање са драматичним економским и политичким поремећајима (посебно демократији) које ће АИ изазвати.

Да ли се слажете да је пауза за разматрање и планирање напредне вештачке интелигенције неопходна? Слободно коментаришите испод.

Најновији пост на блогу

| Култ Маца
October 21, 2021

Данас у историји Аппле -а: ПоверБоок 540ц је најбољи Мац лаптоп до садаСа импресивним спецификацијама и отменим екраном, ПоверБоок 540ц подигао је ...

Аппле каже да потенцијални мандат ЕУ за каблове за пуњење "гуши иновације"
October 21, 2021

Аппле се данас противио захтевима Европске уније за стандардизованим кабловима за пуњење паметних телефона и других уређаја.Нови прописи које разма...

Како се користи режим Аппле Паи Екпресс Трансит
October 21, 2021

Ако сте мислили да је коришћење Аппле Паи -а већ једноставно, припремите се да будете задивљени. Још је лакше ако омогућите режим Екпресс Трансит. ...