Wozniak, Musk, dan peneliti terkemuka mendesak jeda pada AI 'di luar kendali'

Surat terbuka baru yang ditandatangani oleh para pemimpin teknologi mendesak jeda enam bulan pada pengembangan aplikasi kecerdasan buatan canggih yang dapat menimbulkan "risiko besar bagi masyarakat dan kemanusiaan."

Salah satu pendiri Apple Steve Wozniak, CEO Tesla Elon Musk, eksekutif teknologi lainnya, dan banyak akademisi AI menandatangani surat tersebut. Ini mendesak kehati-hatian terkait AI "muncul" yang lebih kuat daripada GPT-4. Kami tidak membicarakan Siri di sini (setidaknya belum).

Surat terbuka mendesak jeda untuk perencanaan yang lebih hati-hati untuk mengelola AI tingkat lanjut

Surat muncul di situs web Future of Life Institute dan menarik lebih dari 1.123 tanda tangan pada hari Rabu. Itu tidak membutuhkan jeda semuapengembangan AI, hanya "model kotak hitam tak terduga yang semakin besar dengan kemampuan yang muncul".

“Kami menyerukan kepada semua laboratorium AI untuk segera menghentikan pelatihan sistem AI yang lebih kuat dari GPT-4 setidaknya selama 6 bulan,” katanya. Ia menambahkan jeda “harus bersifat publik dan dapat diverifikasi.” Dan jika itu tidak terjadi dengan cepat, “pemerintah harus turun tangan dan melembagakan moratorium.”

'Balapan di luar kendali'

Surat itu menggambarkan pengembangan AI sebagai di luar kendali, berisiko, tidak dapat diprediksi, dan bahkan di luar pemahaman pembuatnya sendiri, berkat persaingan yang cepat. Itu mengutip Prinsip AI Asilomar dikembangkan pada Beneficial AI Conference tahun 2017:

Sebagaimana dinyatakan dalam Asilomar AI Principles yang didukung secara luas, AI tingkat lanjut dapat mewakili perubahan besar dalam sejarah kehidupan di Bumi, dan harus direncanakan dan dikelola dengan perawatan dan sumber daya yang sepadan. Sayangnya, tingkat perencanaan dan manajemen ini tidak terjadi, meskipun beberapa bulan terakhir laboratorium AI terkunci di luar kendali. berlomba untuk mengembangkan dan menyebarkan pikiran digital yang semakin kuat yang tidak seorang pun – bahkan penciptanya – dapat memahami, memprediksi, atau secara andal kontrol.

Sebaiknya kita bahkan melakukan ini?

Para penandatangan mengajukan sejumlah pertanyaan yang mereka tekankan kepada orang-orang sebaiknya tanyakan sebelum maju dengan pengembangan AI. Surat itu juga merujuk pada kekuatan AI untuk menghilangkan banyak jenis pekerjaan di berbagai tingkatan, bukan hanya tugas sederhana dan berulang.

Sebaiknya kita membiarkan mesin membanjiri saluran informasi kita dengan propaganda dan kebohongan? Sebaiknya kami mengotomatiskan semua pekerjaan, termasuk yang memuaskan? Sebaiknya kita mengembangkan pikiran bukan manusia yang pada akhirnya mungkin melebihi jumlah, mengakali, usang dan menggantikan kita? Sebaiknya kita berisiko kehilangan kendali atas peradaban kita? Keputusan semacam itu tidak boleh didelegasikan kepada pemimpin teknologi yang tidak dipilih. Sistem AI yang kuat harus dikembangkan hanya setelah kami yakin bahwa efeknya akan positif dan risikonya dapat dikelola.

Bahkan pengembang bot AI ChatGPT menyarankannya

Surat itu menunjukkan bahwa pengembang ChatGPT OpenAI sebelumnya mencatat jeda mungkin diperlukan.

Pernyataan OpenAI baru-baru ini mengenai kecerdasan umum buatan, menyatakan bahwa “Pada titik tertentu, mungkin penting untuk mendapatkan tinjauan independen sebelumnya mulai melatih sistem masa depan, dan untuk upaya yang paling maju setuju untuk membatasi laju pertumbuhan komputasi yang digunakan untuk membuat model baru.” Kami setuju. Titik itu sekarang.

Efek positif dan risiko yang dapat dikelola

Selain efek positif dan risiko yang dapat dikelola yang disebutkan di atas, tujuan jeda dirangkum dalam surat seperti ini:

Penelitian dan pengembangan AI harus difokuskan kembali untuk membuat sistem yang kuat dan canggih saat ini menjadi lebih akurat, aman, dapat ditafsirkan, transparan, kuat, selaras, dapat dipercaya, dan loyal.

Dan surat itu selanjutnya menjelaskan perlindungan yang diperlukan melalui sistem tata kelola yang dikembangkan bekerja sama dengan pembuat kebijakan.

Pengembang AI harus bekerja dengan pembuat kebijakan untuk secara dramatis mempercepat pengembangan sistem tata kelola AI yang kuat. Ini minimal harus mencakup: otoritas pengatur baru dan mampu yang didedikasikan untuk AI; pengawasan dan pelacakan sistem AI berkemampuan tinggi dan kumpulan besar kemampuan komputasi; sistem asal dan watermarking untuk membantu membedakan nyata dari sintetis dan untuk melacak kebocoran model; ekosistem audit dan sertifikasi yang kuat; pertanggungjawaban atas kerugian yang disebabkan oleh AI; pendanaan publik yang kuat untuk penelitian keamanan AI teknis; dan institusi dengan sumber daya yang baik untuk mengatasi gangguan ekonomi dan politik yang dramatis (terutama terhadap demokrasi) yang akan ditimbulkan oleh AI.

Apakah Anda setuju jeda untuk mempertimbangkan dan merencanakan AI tingkat lanjut diperlukan? Jangan ragu untuk berkomentar di bawah ini.

Postingan Blog Terbaru

Hands-on dengan Survival Straps paracord band Apple Watch [Unboxing]
October 21, 2021

Tali jam Apple Watch paracord Survival Straps menjadi hit besar di kalangan pelanggan Watch Store. Band yang dibuat khusus ini adalah yang asli, di...

| Kultus Mac
October 21, 2021

Jauhkan hidrogen peroksida dari perangkat Apple AndaJangan gabungkan iPhone dan hidrogen peroksida Anda.Foto: Ed Hardy/Cult of MacApple baru-baru i...

Hidupkan kembali masa keemasan bermain game dengan perangkat klasik ini
October 21, 2021

Hidupkan kembali masa keemasan bermain game dengan perangkat klasik iniMainkan lebih dari 600 game 8-bit bergaya klasik dengan konsol yang kompatib...