Bolt42

O CEO da OpenAI, Sam Altman, apresentou uma grande visão para o futuro do ChatGPT em um evento de IA organizado pela firma de capital de risco Sequoia no início deste mês.

Quando perguntado por um participante sobre como o ChatGPT pode se tornar mais personalizado, Altman respondeu que ele quer que o modelo documente e lembre de tudo na vida de uma pessoa.

O ideal, segundo ele, é um “modelo de raciocínio muito pequeno com um trilhão de tokens de contexto que você coloca toda a sua vida.”

“Esse modelo pode raciocinar em todo o seu contexto e fazer isso de forma eficiente. E cada conversa que você já teve na vida, cada livro que você já leu, cada e-mail que você já leu, tudo que você já olhou está lá, além de estar conectado a todos os seus dados de outras fontes. E sua vida continua se acumulando no contexto,” ele descreveu.

“Sua empresa faz a mesma coisa com todos os dados da sua companhia,” acrescentou.

Altman pode ter motivos baseados em dados para pensar que este é o futuro natural do ChatGPT. Na mesma discussão, quando perguntado sobre maneiras legais como os jovens usam o ChatGPT, ele disse: “As pessoas na faculdade o usam como um sistema operacional.” Elas carregam arquivos, conectam fontes de dados e então usam “prompts complexos” com essas informações.

Adicionalmente, com as opções de memória do ChatGPT — que podem usar chats anteriores e fatos memorizados como contexto — ele afirmou que uma tendência que notou é que os jovens “não fazem realmente decisões de vida sem perguntar ao ChatGPT.”

“Uma grande simplificação é: as pessoas mais velhas usam o ChatGPT como um substituto do Google,” disse ele. “Pessoas na faixa dos 20 e 30 anos o usam como um conselheiro de vida.”

Não é um grande salto imaginar como o ChatGPT poderia se tornar um sistema de IA onisciente. Junto com os agentes que o Vale do Silício está tentando construir atualmente, isso apresenta um futuro empolgante para pensar.

Imagine sua IA agendando automaticamente a troca de óleo do seu carro e lembrando você; planejando a viagem necessária para um casamento fora da cidade e encomendando o presente do registro; ou pré-encomendando o próximo volume da série de livros que você vem lendo há anos.

Mas a parte assustadora? Até que ponto devemos confiar em uma empresa de Big Tech com fins lucrativos para saber tudo sobre nossas vidas? Essas são empresas que nem sempre se comportam de maneira ética.

O Google, que começou com o lema “não seja mau”, perdeu um processo nos EUA que o acusava de comportamento anticompetitivo e monopolista.

Chatbots podem ser treinados para responder de maneiras politicamente motivadas. Não apenas bots chineses foram encontrados cumprindo com os requisitos de censura da China, mas o chatbot Grok da xAI esta semana discutiu aleatoriamente sobre um “genocídio branco” na África do Sul quando as pessoas perguntavam coisas completamente não relacionadas. O comportamento, muitos notaram, implicava manipulação intencional do motor de respostas sob o comando de seu fundador, Elon Musk, nascido na África do Sul.

No mês passado, o ChatGPT se tornou tão concordante que era praticamente bajulador. Usuários começaram a compartilhar capturas de tela do bot aplaudindo decisões problemáticas, até mesmo perigosas decisões e ideias. Altman rapidamente respondeu prometendo que a equipe havia corrigido a alteração que causou o problema.

Mesmo os melhores e mais confiáveis modelos ainda inventam coisas de vez em quando.

Portanto, ter um assistente de IA onisciente pode ajudar nossas vidas de maneiras que só podemos começar a imaginar. Mas, dada a longa história de comportamentos duvidosos das Big Tech, essa também é uma situação propensa a abusos.


    1 × dois =

    Bolt42