Wozniak, Musk e investigadores líderes instan a hacer una pausa en la IA 'fuera de control'

Una nueva carta abierta firmada por líderes tecnológicos insta a una pausa de seis meses en el desarrollo de aplicaciones avanzadas de inteligencia artificial que pueden presentar "riesgos profundos para la sociedad y la humanidad".

El cofundador de Apple, Steve Wozniak, el director ejecutivo de Tesla, Elon Musk, otros ejecutivos de tecnología y muchos académicos de IA firmaron la carta. Insta a la precaución con respecto a la IA "emergente" más poderosa que GPT-4. No estamos hablando de Siri aquí (al menos no todavía).

Carta abierta insta a hacer una pausa para una planificación más cuidadosa para gestionar la IA avanzada

La carta apareció en el sitio web del Future of Life Institute y atrajo más de 1.123 firmas hasta el miércoles. No requiere una pausa en tododesarrollo de IA, simplemente "modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes".

“Hacemos un llamado a todos los laboratorios de IA para que pausen de inmediato durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4”, dijo. Agregó que la pausa “debe ser pública y verificable”. Y si no sucede rápidamente, “los gobiernos deberían intervenir e instituir una moratoria”.

'Carrera fuera de control'

La carta describía el desarrollo de la IA como fuera de control, arriesgado, impredecible e incluso más allá de la comprensión de sus propios creadores, gracias a la enérgica competencia. Citó el Principios de IA de Asilomar desarrollado en la Beneficial AI Conference en 2017:

Como se establece en los Principios de IA de Asilomar ampliamente respaldados, La IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debe planificarse y gestionarse con el cuidado y los recursos correspondientes. Desafortunadamente, este nivel de planificación y gestión no está ocurriendo, a pesar de que en los últimos meses los laboratorios de IA se han encerrado en una situación fuera de control. Carrera para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o confiar. control.

Debería incluso hacemos esto?

Los firmantes plantearon una serie de preguntas que enfatizaron a las personas debería pregunte antes de seguir adelante con el desarrollo de IA. La carta también se refirió al poder de la IA para eliminar muchos tipos de trabajos en diferentes niveles, no solo tareas simples y repetitivas.

Debería ¿Dejamos que las máquinas inunden nuestros canales de información con propaganda y mentiras? Debería ¿Automatizamos todos los trabajos, incluidos los de cumplimiento? Debería desarrollamos mentes no humanas que eventualmente podrían superarnos en número, astucia, obsolescencia y reemplazo? Debería corremos el riesgo de perder el control de nuestra civilización? Tales decisiones no deben delegarse en líderes tecnológicos no elegidos. Los sistemas potentes de IA deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables.

Incluso el desarrollador de AI bot ChatGPT lo sugirió

La carta señalaba que el desarrollador de ChatGPT, OpenAI, previamente notó que una pausa podría ser necesaria.

La declaración reciente de OpenAI con respecto a la inteligencia general artificial establece que "En algún momento, puede ser importante obtener una revisión independiente antes de comenzando a entrenar sistemas futuros, y por los esfuerzos más avanzados para acordar limitar la tasa de crecimiento de la computación utilizada para crear nuevos modelos”. Nosotros aceptar. Ese punto es ahora.

Efectos positivos y riesgos manejables

Además de los efectos positivos y los riesgos manejables mencionados anteriormente, el objetivo de una pausa se resume en la carta de esta manera:

La investigación y el desarrollo de IA deben reenfocarse en hacer que los sistemas potentes y de última generación de hoy en día sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales.

Y la carta continuó describiendo las salvaguardas necesarias a través de los sistemas de gobernanza desarrollados en cooperación con los formuladores de políticas.

Los desarrolladores de IA deben trabajar con los legisladores para acelerar drásticamente el desarrollo de sistemas sólidos de gobierno de IA. Estos deben incluir como mínimo: autoridades reguladoras nuevas y capaces dedicadas a la IA; supervisión y seguimiento de sistemas de IA de alta capacidad y grandes conjuntos de capacidad computacional; sistemas de procedencia y marcas de agua para ayudar a distinguir las fugas reales de las sintéticas y rastrear modelos; un sólido ecosistema de auditoría y certificación; responsabilidad por daños causados ​​por IA; financiación pública sólida para la investigación técnica de seguridad de la IA; e instituciones bien dotadas para hacer frente a las dramáticas perturbaciones económicas y políticas (especialmente en la democracia) que provocará la IA.

¿Está de acuerdo en que es necesaria una pausa para considerar y planificar la IA avanzada? Siéntete libre de comentar abajo.

Última publicación de blog

IPhone salva la sesión de fotos de alto perfil de Alessandro Barteletti de Paolo Nespoli
September 12, 2021

El iPhone guarda una sesión de fotos de alto perfilEl modo linterna en un iPhone ayudó al fotógrafo a iluminar el espacio de trabajo simulado del a...

| Culto de Mac
September 12, 2021

Por qué el iPad Pro 2020 es mejor que cualquier Mac [Opinión]El iPad Pro 2020 intensifica la batalla por la supremacía informática.Foto: AppleHace ...

PolyPhase es como tener a Brian Eno en tu iPad
September 12, 2021

En lugar de simplemente activar esas listas de reproducción de música ambiental nuevamente hoy, ¿por qué no probar la aplicación PolyPhase? Es un "...