ვოზნიაკი, მასკი და წამყვანი მკვლევარები ითხოვენ შეჩერებას "კონტროლის გარეშე" ხელოვნური ინტელექტის შესახებ

ახალი ღია წერილი, რომელსაც ხელს აწერენ ტექნიკური ლიდერები, ექვსთვიანი პაუზისკენ მოუწოდებს მოწინავე ხელოვნური ინტელექტის აპლიკაციების შემუშავებას, რამაც შესაძლოა „ღრმა რისკები შექმნას საზოგადოებისა და კაცობრიობისთვის“.

Apple-ის თანადამფუძნებელმა სტივ ვოზნიაკმა, Tesla-ს აღმასრულებელმა დირექტორმა ელონ მასკმა, სხვა ტექნიკურმა ხელმძღვანელებმა და ხელოვნური ინტელექტის მეცნიერებმა ხელი მოაწერეს წერილს. ის მოუწოდებს სიფრთხილეს GPT-4-ზე უფრო მძლავრი „განვითარებული“ ხელოვნური ინტელექტის შესახებ. ჩვენ არ ვსაუბრობთ სირიზე (ყოველ შემთხვევაში, ჯერ არა).

ღია წერილი მოუწოდებს შეჩერებას უფრო ფრთხილად დაგეგმვისთვის მოწინავე ხელოვნური ინტელექტის მართვისთვის

Წერილი გამოჩნდა Future of Life Institute-ის ვებგვერდზე ოთხშაბათის მდგომარეობით 1123-ზე მეტი ხელმოწერა მოიზიდა. ეს არ ითხოვს შეჩერებას ყველაAI განვითარება, უბრალოდ „უფრო დიდი არაპროგნოზირებადი შავი ყუთის მოდელები გაჩენილი შესაძლებლობებით“.

„ჩვენ მოვუწოდებთ ხელოვნური ინტელექტის ყველა ლაბორატორიას, დაუყოვნებლივ შეაჩერონ GPT-4-ზე ძლიერი ხელოვნური ხელოვნური ინტელექტის სისტემების ტრენინგი მინიმუმ 6 თვით“, - ნათქვამია განცხადებაში. მან დაამატა პაუზა „უნდა იყოს საჯარო და გადამოწმებადი“. და თუ ეს სწრაფად არ მოხდება, „მთავრობებმა უნდა ჩაერთონ და მორატორიუმი დააწესონ“.

"უკონტროლო რბოლა"

წერილში აღწერილია ხელოვნური ინტელექტის განვითარება, როგორც უკონტროლო, სარისკო, არაპროგნოზირებადი და საკუთარი შემქმნელებისთვის გასაგებიც კი, ძლიერი კონკურენციის წყალობით. მას მოჰყავდა Asilomar AI პრინციპები შემუშავებული ბენეფიციალური AI კონფერენციაზე 2017 წელს:

როგორც ნათქვამია ფართოდ დამტკიცებულ Asilomar AI პრინციპებში, მოწინავე ხელოვნური ინტელექტი შეიძლება წარმოადგენდეს ღრმა ცვლილებას დედამიწაზე ცხოვრების ისტორიაში და უნდა დაიგეგმოს და იმართოს შესაბამისი ზრუნვით და რესურსებით. სამწუხაროდ, დაგეგმვისა და მენეჯმენტის ეს დონე არ ხდება, მიუხედავად იმისა, რომ ბოლო თვეების განმავლობაში AI ლაბორატორიები ჩაკეტილი იყო უკონტროლო მდგომარეობაში. რბოლა განავითაროს და განათავსოს უფრო ძლიერი ციფრული გონება, რომლის გაგება, პროგნოზირება ან საიმედოდ ვერავინ - მათი შემქმნელებიც კი ვერ შეძლებს კონტროლი.

უნდა ჩვენ კი ამას ვაკეთებთ?

ხელმომწერებმა დაუსვეს მთელი რიგი კითხვები, რომლებზეც მათ ხაზი გაუსვეს ხალხს უნდა იკითხეთ სანამ დაიწყებთ AI-ს განვითარებას. წერილში ასევე საუბარი იყო ხელოვნური ინტელექტის ძალაზე, წაართვას მრავალი სახის სამუშაო სხვადასხვა დონეზე და არა მხოლოდ მარტივი, განმეორებადი ამოცანები.

უნდა ვუშვებთ მანქანებს ჩვენი საინფორმაციო არხების პროპაგანდითა და სიცრუით დატბოროს? უნდა ჩვენ ავტომატიზირებას ვახდენთ ყველა სამუშაოს, მათ შორის შესრულებულ სამუშაოებს? უნდა ჩვენ განვავითარებთ არაადამიანურ გონებას, რომელიც შეიძლება საბოლოოდ გადააჭარბოს, აჯობა, მოძველდეს და შეგვცვალოს? უნდა რისკავს ჩვენს ცივილიზაციაზე კონტროლის დაკარგვას? ასეთი გადაწყვეტილებები არ უნდა გადაეცეს არჩეულ ტექნიკურ ლიდერებს. ძლიერი AI სისტემები უნდა განვითარდეს მხოლოდ მას შემდეგ, რაც ჩვენ დავრწმუნდებით, რომ მათი ეფექტი დადებითი იქნება და მათი რისკები მართვადი.

AI ბოტის ChatGPT-ის დეველოპერმაც კი შესთავაზა ეს

წერილში აღინიშნა, რომ ChatGPT-ის დეველოპერი OpenAI ადრე აღნიშნა, რომ შესაძლოა საჭირო გახდეს პაუზა.

OpenAI-ის ბოლო განცხადებაში ხელოვნური ზოგადი ინტელექტის შესახებ ნათქვამია, რომ ”რაღაც მომენტში, შეიძლება მნიშვნელოვანი იყოს დამოუკიდებელი მიმოხილვის მიღება მანამდე მომავალი სისტემების მომზადების დაწყება და ყველაზე მოწინავე ძალისხმევის შეთანხმება ახალი მოდელების შესაქმნელად გამოყენებული გამოთვლების ზრდის ტემპის შეზღუდვაზე“. ჩვენ ვეთანხმები. ეს წერტილი ახლაა.

დადებითი ეფექტი და მართვადი რისკები

ზემოთ ნახსენები დადებითი ეფექტისა და მართვადი რისკების გარდა, წერილში პაუზის მიზანი ასეა შეჯამებული:

ხელოვნური ინტელექტის კვლევა და განვითარება ხელახლა ორიენტირებული უნდა იყოს დღევანდელი მძლავრი, თანამედროვე სისტემების უფრო ზუსტი, უსაფრთხო, ინტერპრეტაციის, გამჭვირვალე, მტკიცე, მორგებული, სანდო და ლოიალური გახადაზე.

და წერილი შემდგომში აღწერს აუცილებელ გარანტიებს პოლიტიკის შემქმნელებთან თანამშრომლობით შემუშავებული მმართველობითი სისტემების მეშვეობით.

ხელოვნური ინტელექტის შემქმნელებმა უნდა იმუშაონ პოლიტიკის შემქმნელებთან, რათა მკვეთრად დააჩქარონ ძლიერი ხელოვნური ინტელექტის მართვის სისტემების განვითარება. ეს მინიმუმ უნდა მოიცავდეს: ახალ და ქმედუნარიან მარეგულირებელ ორგანოებს, რომლებიც ეძღვნება AI-ს; ზედამხედველობა და თვალყურის დევნება AI სისტემებისა და გამოთვლითი შესაძლებლობების დიდი აუზების შესახებ; წარმოშობის და წყალმომარაგების სისტემები, რომლებიც დაგეხმარებათ განასხვავოთ რეალური სინთეზურიდან და თვალყური ადევნოთ მოდელის გაჟონვას; ძლიერი აუდიტისა და სერტიფიცირების ეკოსისტემა; პასუხისმგებლობა AI-ით გამოწვეული ზიანისთვის; ძლიერი სახელმწიფო დაფინანსება ტექნიკური AI უსაფრთხოების კვლევისთვის; და კარგი რესურსებით აღჭურვილი ინსტიტუტები, რათა გაუმკლავდნენ დრამატულ ეკონომიკურ და პოლიტიკურ შეფერხებებს (განსაკუთრებით დემოკრატიაში), რომელსაც ხელოვნური ინტელექტი გამოიწვევს.

ეთანხმებით თუ არა საჭიროა პაუზა განიხილოს და დაგეგმოთ მოწინავე AI? მოგერიდებათ კომენტარის გაკეთება ქვემოთ.

უახლესი ბლოგი

| Mac- ის კულტი
September 10, 2021

როგორ გაუშვათ გრემის დაჯილდოვება დღეს საღამოს თქვენს iPhone და iPad– ზეგრემის 54 -ე დაჯილდოების ცერემონია გაიმართება დღეს საღამოს 20:00 საათზე, ლოს...

| Mac- ის კულტი
September 10, 2021

iPhone 3GS, iPhone 4 არ მიიღებს ნავიგაციას ან 3D რუქებს iOS 6-შიშემობრუნება გამოიყურება წარმოუდგენლად, მაგრამ ეს არ მოვა თქვენს iPhone 3GS– ზე.მიუხ...

| Mac- ის კულტი
September 10, 2021

ეშტონ კატჩერის სტივ ჯობსის ფილმის პირველი ვიდეო კლიპი ახლახან მოხვდა ინტერნეტში ამ დილით. ჩვენ მართლაც შთაბეჭდილება მოახდინა კატჩერმა გადახედვისას,...