Wozniak, Musk e os principais pesquisadores pedem uma pausa na IA 'fora de controle'

Uma nova carta aberta assinada por líderes de tecnologia pede uma pausa de seis meses no desenvolvimento de aplicativos avançados de inteligência artificial que podem representar “riscos profundos para a sociedade e a humanidade”.

O cofundador da Apple, Steve Wozniak, o CEO da Tesla, Elon Musk, outros executivos de tecnologia e muitos acadêmicos de IA assinaram a carta. Ele pede cautela em relação à IA “emergente” mais poderosa que a GPT-4. Não estamos falando de Siri aqui (pelo menos ainda não).

Carta aberta pede pausa para um planejamento mais cuidadoso para gerenciar IA avançada

A carta apareceu no site do Future of Life Institute e atraiu mais de 1.123 assinaturas na quarta-feira. Não pede uma pausa todosdesenvolvimento de IA, apenas “modelos imprevisíveis de caixa preta cada vez maiores com recursos emergentes”.

“Pedimos a todos os laboratórios de IA que parem imediatamente por pelo menos 6 meses o treinamento de sistemas de IA mais poderosos que o GPT-4”, afirmou. Acrescentou que a pausa “deve ser pública e verificável”. E se isso não acontecer rapidamente, “os governos devem intervir e instituir uma moratória”.

‘Corrida fora de controle’

A carta descrevia o desenvolvimento da IA ​​como fora de controle, arriscado, imprevisível e até mesmo além da compreensão de seus próprios criadores, graças à forte concorrência. Citou o Princípios de IA da Asilomar desenvolvido na Beneficial AI Conference em 2017:

Conforme declarado nos amplamente endossados ​​Princípios de IA de Asilomar, A IA avançada pode representar uma mudança profunda na história da vida na Terra e deve ser planejada e gerenciada com cuidado e recursos adequados. Infelizmente, esse nível de planejamento e gerenciamento não está acontecendo, embora os últimos meses tenham visto os laboratórios de IA presos em um estado fora de controle. corrida para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém – nem mesmo seus criadores – pode entender, prever ou confiavelmente ao controle.

Deve nós fazemos isso?

Os signatários fizeram uma série de perguntas que enfatizaram as pessoas deve estar perguntando antes de avançar com o desenvolvimento de IA. A carta também se referia ao poder da IA ​​de eliminar muitos tipos de empregos em diferentes níveis, não apenas tarefas simples e repetitivas.

Deve deixamos as máquinas inundarem nossos canais de informação com propaganda e inverdades? Deve automatizamos todos os trabalhos, incluindo os satisfatórios? Deve desenvolvemos mentes não-humanas que podem eventualmente superar em número, ser mais espertas, obsoletas e nos substituir? Deve corremos o risco de perder o controle de nossa civilização? Tais decisões não devem ser delegadas a líderes tecnológicos não eleitos. Sistemas poderosos de IA devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administráveis.

Até mesmo o desenvolvedor do AI bot ChatGPT sugeriu isso

A carta apontou que o desenvolvedor do ChatGPT, OpenAI, anteriormente observou que uma pausa pode se tornar necessária.

A recente declaração da OpenAI sobre inteligência artificial geral afirma que “em algum momento, pode ser importante obter uma revisão independente antes começando a treinar sistemas futuros e para os esforços mais avançados para concordar em limitar a taxa de crescimento da computação usada para criar novos modelos.” Nós concordar. Esse ponto é agora.

Efeitos positivos e riscos gerenciáveis

Além dos efeitos positivos e riscos administráveis ​​mencionados acima, o objetivo de uma pausa é resumido na carta assim:

A pesquisa e o desenvolvimento de IA devem ser reorientados para tornar os sistemas avançados e poderosos de hoje mais precisos, seguros, interpretáveis, transparentes, robustos, alinhados, confiáveis ​​e leais.

E a carta passou a descrever as salvaguardas necessárias por meio de sistemas de governança desenvolvidos em cooperação com os formuladores de políticas.

Os desenvolvedores de IA devem trabalhar com os formuladores de políticas para acelerar drasticamente o desenvolvimento de sistemas robustos de governança de IA. Estes devem incluir, no mínimo: autoridades reguladoras novas e capazes dedicadas à IA; supervisão e rastreamento de sistemas de IA altamente capazes e grandes conjuntos de capacidade computacional; sistemas de proveniência e marca d'água para ajudar a distinguir o real do sintético e rastrear vazamentos de modelos; um ecossistema robusto de auditoria e certificação; responsabilidade por danos causados ​​pela IA; financiamento público robusto para pesquisa técnica de segurança de IA; e instituições com bons recursos para lidar com as dramáticas perturbações econômicas e políticas (especialmente para a democracia) que a IA causará.

Você concorda que é necessária uma pausa para considerar e planejar a IA avançada? Sinta-se livre para comentar abaixo.

Última postagem do blog

Apple how-tos: dicas e truques para todos os dispositivos Apple
September 10, 2021

Siga estas etapas para controlar seu iPhone com a cabeçaÀ medida que mais e mais smartphones são lançados com todos os novos recursos, não é difíci...

| Culto de Mac
September 10, 2021

Use o acesso guiado e entregue com segurança seu iPhone ou iPad a qualquer pessoa [dicas para iOS]Todos nós fizemos isso. Passamos nosso amado apar...

| Culto de Mac
September 10, 2021

Lançamento do serviço de streaming NBC Peacock com suporte para Apple TVComo esperado, o Peacock será lançado com suporte para dispositivos Apple.F...