Principal negócios O ChatGPT pode realmente pensar como um humano? Perguntas e respostas com I.A. Cientista Dave Ferrucci

O ChatGPT pode realmente pensar como um humano? Perguntas e respostas com I.A. Cientista Dave Ferrucci

Que Filme Ver?
 
  David Ferrucci
David Ferrucci, CEO e cientista-chefe da Elemental Cognition. Cortesia de David Ferrucci

A inteligência artificial está ficando inteligente rapidamente. Os recentes avanços da tecnologia, manifestados nos recursos impressionantes de aplicativos como o ChatGPT, provocaram o medo de que a IA. pode em breve dominar a humanidade - e não de um jeito bom. No ano passado, um engenheiro do Google reivindicou a inteligência artificial da empresa. chatbot LaMDA era tão inteligente que se tornou “sensível”. Este ano, alarmado com o perigo potencial da IA, um grupo de mais de 1.000 empresários e acadêmicos de tecnologia, incluindo Elon Musk, em março pediu uma pausa de seis meses no treinamento de I.A. sistemas mais avançado do que o GPT-4 da OpenAI, o mais novo modelo de linguagem do ChatGPT.



Embora os aplicativos de modelo de linguagem grande (LLM), como o ChatGPT e o Bard do Google, tenham mostrado o potencial de superar os humanos em muitas tarefas e substituir empregos, eles não são iguais ao cérebro humano porque os mecanismos de aprendizado subjacentes são diferentes, David Ferrucci, um cientista da computação e pioneiro da IA ​​comercial. candidatura, disse ao Observador.








Ferrucci é mais conhecido como o criador do IBM Watson. Desenvolvido no final dos anos 2000 para responder a perguntas no programa de perguntas e respostas da televisão Perigo! , o sistema de computador acabou vencendo os competidores humanos no jogo em 2011.



'Quando o Perigo! desafio foi proposto no início de 2007, fui o único na IBM Research, mesmo na comunidade acadêmica, que pensou que poderia ser feito e basicamente se inscreveu para persegui-lo”, disse Ferrucci ao Observer em uma entrevista.

Em sua essência, o IBM Watson é um sistema baseado em aprendizado de máquina que aprendeu a responder Perigo! perguntas digerindo grandes quantidades de dados de shows anteriores. Surgiu em um momento em que o aprendizado profundo, um subconjunto da inteligência artificial, estava começando a se firmar. Antes disso, os sistemas de computador dependiam fortemente da programação e supervisão humana.






Em 2012, logo após o sucesso de bilheteria de Watson, Ferrucci deixou a IBM após 18 anos para liderar a A.I. pesquisa para Bridgewater Associates , o maior fundo de hedge do mundo. Durante a maior parte da última década, o trabalho de Ferrucci concentrou-se no desenvolvimento de IA híbrida, que busca combinar aprendizado de máquina orientado por dados com raciocínio lógico – em outras palavras, treinar algoritmos para “pensar” mais como humanos.



tecnologia do santo graal bill gates

Em 2015, a Bridgewater financiou um projeto interno liderado por Ferrucci que acabou se tornando uma empresa independente chamada Cognição elementar . A IA híbrida da Elemental Cognition os aplicativos podem ser usados ​​na gestão de investimentos, planejamento logístico e descoberta de medicamentos, de acordo com seu site. Em fevereiro, a startup assinou com a Bridgewater como cliente.

Em entrevista ao Observer no início deste mês, Ferruci discutiu os diferentes processos de aprendizado do ChatGPT e do cérebro humano, a necessidade de IA híbrida e por que ele acha que a proposta de uma IA de seis meses a pausa é mais simbólica do que prática.

A transcrição a seguir foi editada para maior clareza.

O que exatamente é IA híbrida?

A IA híbrida combina um processo indutivo orientado por dados com um processo orientado por lógica. O aprendizado de máquina é um processo orientado por dados. Ele só ficará melhor com mais e mais dados de treinamento disponíveis. Mas para se comunicar com humanos, você também precisa de lógica e raciocínio.

aplicativos de conexão gay mais populares

A cognição humana funciona da mesma maneira, conforme explicado no livro de Daniel Kahneman Pensando, rápido e lento. O cérebro humano funciona pensando rápido e devagar ao mesmo tempo. Para obter uma tomada de decisão precisa e confiável, você precisa do melhor dos dois mundos.

Como o pensamento rápido é diferente do pensamento lento? Por que precisamos de ambos?

Pensamento rápido é quando extrapolamos de nossa experiência, ou dados, e então generalizamos. A generalização pode estar errada, no entanto, porque é baseada em características superficiais que podem se correlacionar nos dados, mas não são realmente causais – esta é a base do pensamento preconceituoso.

O pensamento lento é formular um modelo de como penso que as coisas funcionam: quais são meus valores? Quais são minhas suposições? Quais são minhas regras de inferência? E qual é a minha lógica para tirar uma conclusão?

Quando falamos de I.A. hoje, tendemos a pensar automaticamente em aprendizado de máquina, que, como você disse, é um processo orientado a dados. Existem exemplos do mundo real de IA puramente orientada pela lógica?

Sim, IA orientada por lógica foi assimilado em muitas aplicações do mundo real. Representações formais da lógica de resolução de problemas, como sistemas baseados em regras ou sistemas de otimização e solução de restrições, estão sendo usados ​​para aplicativos de gerenciamento de recursos, agendamento, planejamento, controle e execução.

Mas não pensamos neles como A.I. mais, em grande parte porque, com a revolução de big data e aprendizado de máquina, A.I. tornou-se fortemente associado a sistemas de aprendizado de máquina.

pesquisa de telefone gratuita por endereço

Onde os LLMs como GPT e LaMDA estão no espectro do pensamento rápido/lento? Eles estão realmente próximos da inteligência humana, como afirmou um engenheiro do Google no ano passado?

Os LLMs produzem grandes estruturas de dados que capturam as probabilidades estatísticas de certas sequências de palavras seguindo outras sequências de palavras. O que o ChatGPT faz são previsões estatísticas baseadas nas características superficiais da linguagem. Com dados de treinamento suficientes e técnicas de aprendizado de máquina realmente poderosas, esses modelos podem imitar uma linguagem com som fluente.

Isso não é raciocínio lógico. É difícil argumentar que uma grande tabela de probabilidades é senciente. Eu diria que não. No entanto, uma coisa interessante sobre a cognição humana é que combinamos textos que soam coerentes com fatos. Nós pensamos, isso parece muito bom, deve ser verdade. Mas a verdade requer compreensão e análise mais profundas além das características superficiais da linguagem.

Você está nervoso sobre A.I. eventualmente superando os humanos?

A.I. podem realizar certas tarefas melhor do que os humanos. Tem sido verdade há anos. Hoje, à medida que os dados e as técnicas de treinamento melhoram, é cada vez mais fácil treinar IA. sistemas para realizar tarefas mais humanas. Acho isso muito significativo. Mas eu não acho que A.I. vai assumir. Não há nenhuma entidade independente que queira conquistá-lo. No entanto, A.I. pode ser facilmente abusado. Eu acho que é uma preocupação real.

A Elemental Cognition assinou recentemente com a Bridgewater como cliente, que também é um dos primeiros investidores em sua empresa. Como a IA híbrida pode ajudar os gerentes de investimento a entender melhor a economia e os mercados?

Compreender a economia vem de duas formas: identificar padrões nos dados e interpretar esses padrões para entender o que está acontecendo.

Na gestão de investimentos, o objetivo final é fazer previsões precisas observando indicadores econômicos, como taxas de juros e preços de ações. Os dados têm muito a lhe dizer. Se você pudesse ver padrões nos dados, isso seria realmente poderoso. E se você puder interpretar os padrões e entender o que está acontecendo na economia, terá outra perspectiva. É quase como se você pudesse verificar e equilibrar: aqui estão as correlações mostradas nos dados e aqui está minha compreensão de como as coisas funcionam. Eles concordam ou não?

O que você acha da proposta de pausar a I.A. treinamento por seis meses?

Não acho que isso seja prático para começar, porque grandes modelos de linguagem não são um segredo. Sempre haverá empresas trabalhando neles. Vamos continuar a ver muitos experimentos. Não acho que faça sentido parar essa experimentação.

Mas acho que faz sentido dar um passo para trás e pensar bem sobre isso. Os formuladores de políticas precisam começar a pensar em como regular a IA. porque pode ser abusado de várias maneiras. É provável que vejamos regulamentação sendo desenvolvida e aplicada.

Artigos Que Você Pode Gostar :