Una nueva carta abierta firmada por líderes tecnológicos insta a una pausa de seis meses en el desarrollo de aplicaciones avanzadas de inteligencia artificial que pueden presentar "riesgos profundos para la sociedad y la humanidad".
El cofundador de Apple, Steve Wozniak, el director ejecutivo de Tesla, Elon Musk, otros ejecutivos de tecnología y muchos académicos de IA firmaron la carta. Insta a la precaución con respecto a la IA "emergente" más poderosa que GPT-4. No estamos hablando de Siri aquí (al menos no todavía).
Carta abierta insta a hacer una pausa para una planificación más cuidadosa para gestionar la IA avanzada
La carta apareció en el sitio web del Future of Life Institute y atrajo más de 1.123 firmas hasta el miércoles. No requiere una pausa en tododesarrollo de IA, simplemente "modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes".
“Hacemos un llamado a todos los laboratorios de IA para que pausen de inmediato durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4”, dijo. Agregó que la pausa “debe ser pública y verificable”. Y si no sucede rápidamente, “los gobiernos deberían intervenir e instituir una moratoria”.
'Carrera fuera de control'
La carta describía el desarrollo de la IA como fuera de control, arriesgado, impredecible e incluso más allá de la comprensión de sus propios creadores, gracias a la enérgica competencia. Citó el Principios de IA de Asilomar desarrollado en la Beneficial AI Conference en 2017:
Como se establece en los Principios de IA de Asilomar ampliamente respaldados, La IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debe planificarse y gestionarse con el cuidado y los recursos correspondientes. Desafortunadamente, este nivel de planificación y gestión no está ocurriendo, a pesar de que en los últimos meses los laboratorios de IA se han encerrado en una situación fuera de control. Carrera para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o confiar. control.
Debería incluso hacemos esto?
Los firmantes plantearon una serie de preguntas que enfatizaron a las personas debería pregunte antes de seguir adelante con el desarrollo de IA. La carta también se refirió al poder de la IA para eliminar muchos tipos de trabajos en diferentes niveles, no solo tareas simples y repetitivas.
Debería ¿Dejamos que las máquinas inunden nuestros canales de información con propaganda y mentiras? Debería ¿Automatizamos todos los trabajos, incluidos los de cumplimiento? Debería desarrollamos mentes no humanas que eventualmente podrían superarnos en número, astucia, obsolescencia y reemplazo? Debería corremos el riesgo de perder el control de nuestra civilización? Tales decisiones no deben delegarse en líderes tecnológicos no elegidos. Los sistemas potentes de IA deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables.
Incluso el desarrollador de AI bot ChatGPT lo sugirió
La carta señalaba que el desarrollador de ChatGPT, OpenAI, previamente notó que una pausa podría ser necesaria.
La declaración reciente de OpenAI con respecto a la inteligencia general artificial establece que "En algún momento, puede ser importante obtener una revisión independiente antes de comenzando a entrenar sistemas futuros, y por los esfuerzos más avanzados para acordar limitar la tasa de crecimiento de la computación utilizada para crear nuevos modelos”. Nosotros aceptar. Ese punto es ahora.
Efectos positivos y riesgos manejables
Además de los efectos positivos y los riesgos manejables mencionados anteriormente, el objetivo de una pausa se resume en la carta de esta manera:
La investigación y el desarrollo de IA deben reenfocarse en hacer que los sistemas potentes y de última generación de hoy en día sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales.
Y la carta continuó describiendo las salvaguardas necesarias a través de los sistemas de gobernanza desarrollados en cooperación con los formuladores de políticas.
Los desarrolladores de IA deben trabajar con los legisladores para acelerar drásticamente el desarrollo de sistemas sólidos de gobierno de IA. Estos deben incluir como mínimo: autoridades reguladoras nuevas y capaces dedicadas a la IA; supervisión y seguimiento de sistemas de IA de alta capacidad y grandes conjuntos de capacidad computacional; sistemas de procedencia y marcas de agua para ayudar a distinguir las fugas reales de las sintéticas y rastrear modelos; un sólido ecosistema de auditoría y certificación; responsabilidad por daños causados por IA; financiación pública sólida para la investigación técnica de seguridad de la IA; e instituciones bien dotadas para hacer frente a las dramáticas perturbaciones económicas y políticas (especialmente en la democracia) que provocará la IA.
¿Está de acuerdo en que es necesaria una pausa para considerar y planificar la IA avanzada? Siéntete libre de comentar abajo.