Principal negócios Elon Musk e Steve Wozniak temem que 'líderes tecnológicos não eleitos' detenham muito poder

Elon Musk e Steve Wozniak temem que 'líderes tecnológicos não eleitos' detenham muito poder

Que Filme Ver?
 
  Sam Altman em uma camisa verde.
CEO da OpenAI, Sam Altman. The Washington Post via Getty Images

Um grupo crescente de líderes tecnológicos e cientistas da computação, incluindo Elon Musk e o cofundador da Apple Steve Wozniak , estão pedindo OpenAI e outros laboratórios de inteligência artificial para pausar o treinamento de I.A. sistemas que são mais avançados que o GPT-4, o mais novo modelo de linguagem por trás do gerador de texto ChatGPT.



em um carta aberta intitulado “Pause Giant A.I. Experiments”, publicado ontem (28 de março) pela organização sem fins lucrativos Future of Life Institute, A.I. as empresas são instadas a elaborar um conjunto compartilhado de protocolos de segurança em torno de IA avançada. desenvolvimento antes de criar softwares mais poderosos que possam representar perigos para a humanidade.








A carta coletou mais de 1.000 assinaturas de empresários, acadêmicos e investidores influentes, incluindo Elon Musk, Steve Wozniak, o candidato presidencial de 2020 Andrew Yang, o autor israelense Yuval Noah Harari, o cientista da computação Yoshua Bengio, entre outros.



O sucesso do ChatGPT tem desencadeou uma corrida entre I.A. empresas grandes e pequenas para desenvolver sistemas cada vez mais poderosos que nem mesmo seus criadores podem entender ou controlar.

“A IA avançada pode representar uma mudança profunda na história da vida na Terra e deve ser planejada e gerenciada com cuidado e recursos proporcionais. Infelizmente, esse nível de planejamento e gestão não está acontecendo”, diz a carta.






“Devemos nos perguntar: devemos automatizar todos os trabalhos, incluindo os gratificantes?” Ele continuou. “Devemos desenvolver mentes não humanas que possam eventualmente superar em número, ser mais espertas, obsoletas e nos substituir? Devemos arriscar perder o controle de nossa civilização? Tais decisões não devem ser delegadas a líderes tecnológicos não eleitos.”



A crescente preocupação com IA de uso geral

A.I. os sistemas são frequentemente descritos como uma tecnologia de caixa preta que, uma vez iniciada, ninguém sabe exatamente como funciona. À medida que novos softwares como o ChatGPT se tornam aparentemente capazes de realizar muitas tarefas humanas, há um medo crescente de futuras I.A. sistemas superando e se voltando contra seus criadores humanos. É uma preocupação para muitos líderes da indústria, incluindo o criador do ChatGPT.

“Poderia uma máquina decidir que os humanos são uma ameaça, concluir que seus interesses são diferentes dos nossos ou simplesmente parar de se importar conosco?” Bill Gates escreveu em um postagem no blog semana passada. “Essas questões ficarão mais prementes com o tempo.”

Geoffrey Hinton, um professor de ciência da computação aclamado como “ o padrinho da I.A. ”, disse recentemente A.I. está progredindo mais rápido do que a maioria das pessoas pensa. “Até muito recentemente, eu pensava que levaria 20 a 50 anos antes de termos IA de uso geral. E agora acho que pode levar 20 anos ou menos”, Hinton disse à CBS News no final de semana.

IA de uso geral ou inteligência geral artificial (AGI) são termos que descrevem A.I. sistemas que são capazes de fazer qualquer coisa que um cérebro humano pode fazer com qualquer limite de tamanho de memória ou velocidade.

Hinton acredita que é possível que os computadores eventualmente ganhem a capacidade de criar ideias para melhorar a si mesmos. “Isso é um problema… Temos que pensar muito sobre como você controla isso”, disse ele na entrevista à CBS.

No final de fevereiro, o CEO da OpenAI, Sam Altman, escreveu um postagem no blog abordando especificamente o problema AGI. “Em algum momento, pode ser importante obter uma revisão independente antes de começar a treinar sistemas futuros e, para os esforços mais avançados, concordar em limitar a taxa de crescimento da computação usada para criar novos modelos”, disse Altman no post.

Os defensores da mensagem do Future of Life Institute acreditam que esse ponto é agora. “A.I. os pesquisadores devem usar esse tempo para desenvolver um conjunto compartilhado de protocolos de segurança para IA avançada. desenvolvimento”, dizia a carta aberta. “Isso não significa uma pausa na I.A. desenvolvimento em geral, apenas um retrocesso da corrida perigosa para modelos de caixa-preta cada vez maiores e imprevisíveis com capacidades emergentes”.

O Future of Life Institute é uma organização sem fins lucrativos com sede em Cambridge, Massachusetts, que promove o uso ético e responsável de IA avançada. A organização está por trás de uma promessa de 2018 assinada por Musk e os cofundadores da DeepMind, uma empresa de inteligência artificial. laboratório de propriedade do Google, prometendo nunca desenvolver assassinos de robôs para uso em guerra.

Artigos Que Você Pode Gostar :