Character.AI vai proibir menores de 18 anos de conversar com seus chatbots
A startup Character.AI, nova febre entre os aplicativos de inteligência artificial, vai proibir crianças e adolescentes de terem conversas com chatbots em sua plataforma, após o aumento da pressão de parlamentares e uma série de processos judiciais que alegam que os chamados “personagens” da empresa são responsáveis por danos a menores de idade.
Financial Times: Meta e Character.ai são investigadas por usar IA para dar conselho de saúde mental a crianças
Caso de amor? Mãe nos EUA processa empresa de IA após filho de 14 anos morrer influenciado por chatbot
A companhia informou nesta quarta-feira que, até 25 de novembro, usuários com menos de 18 anos não poderão mais manter conversas abertas com seus chatbots, que os usuários podem criar e com os quais podem interagir. Os personagens variam desde representações digitais de heróis de videogames populares até imitações de celebridades como o bilionário Elon Musk.
Com as novas restrições, a empresa pretende usar tecnologia aprimorada para verificar a idade dos usuários, direcionando-os para experiências distintas — uma para maiores e outra para menores de 18 anos. Para isso, a startup desenvolveu um novo modelo e começará a utilizar o software da empresa de verificação de identidade Persona, informou a companhia, sem dar detalhes de como serão esses mecanismos de controle.
A startup informou que, até que a proibição entre em vigor, vai limitar o tempo diário que os menores poderão conversar com os chatbots — começando com duas horas por dia, diminuindo progressivamente nas semanas seguintes.
Initial plugin text
Serviços como o Character.AI — que até agora permitia o uso por adolescentes a partir dos 13 anos nos Estados Unidos — são populares entre jovens. De acordo com uma pesquisa da organização sem fins lucrativos Common Sense Media, mais de 70% dos adolescentes já usaram companheiros de IA.
Veja: Quem é o brasileiro fundador da Character.AI que viu sua fortuna quadruplicar em um ano
Os menores que utilizam o Character.AI já são direcionados a uma versão mais limitada do serviço, que usa um modelo de IA diferente e impõe restrições, como limitar os tipos de personagens acessíveis e os tipos de conversas permitidas.
O Character.AI, a OpenAI e outras grandes empresas de inteligência artificial estão sob escrutínio crescente quanto aos impactos que seus chatbots podem causar à saúde mental dos usuários. Desde 2024, vários pais entraram com ações judiciais contra empresas que oferecem chatbots de IA, alegando que o uso excessivo dessa tecnologia causou diversos danos a crianças, incluindo manipulação, isolamento e até morte por suicídio.
Reguladores também estão atentos ao tema. A Comissão Federal de Comércio (FTC) abriu uma investigação sobre empresas como Character.AI, OpenAI, Google (Alphabet), Meta, Snap e a xAI, de Elon Musk, para apurar possíveis riscos que seus chatbots representam às crianças.
Coluna IAí? IAs que simulam intimidade e até romance expõem crianças e adolescentes a riscos
A Califórnia aprovou recentemente uma lei restringindo o comportamento permitido de chatbots em relação aos usuários. E um projeto de lei bipartidário apresentado nesta terça-feira no Senado dos EUA propõe proibir empresas de IA de oferecer companheiros virtuais a menores de idade.
Em entrevista na terça-feira, o diretor-presidente do Character.AI, Karandeep Anand, afirmou que a empresa vê o futuro do entretenimento com IA como algo muito mais amplo do que simples conversas baseadas em texto, e que a decisão de limitar o acesso de menores a recursos principais era algo que eventualmente aconteceria de qualquer forma.
— Acho que o que estamos aprendendo como setor, dado o ritmo acelerado da evolução, é que há aspectos desconhecidos sobre o que conversas abertas e prolongadas podem causar — disse Anand. —Não sabemos se são boas ou ruins. Há, sem dúvida, muito debate sobre isso — tanto na comunidade acadêmica quanto entre os próprios usuários.
'Companheiros de IA' : Uso por adolescentes cresce nos EUA e preocupa pesquisadores
Anand acrescentou que a empresa continuará oferecendo recursos voltados a menores, como a criação de vídeos curtos e histórias gerados por IA que incluam os chatbots do Character.AI.
—O motivo pelo qual os usuários vêm ao Character é o desejo de ter um espaço criativo. Eles querem poder representar papéis— afirmou. — Se você criou personagens como vampiros ou figuras de Halloween, queremos continuar a oferecer maneiras de interagir com eles — mas acreditamos que, em vez de fazer isso apenas por meio de um chatbot, há outras formas de alcançar isso.
No ano passado, o Google contratou vários membros da equipe de liderança do Character.AI e licenciou sua tecnologia de modelo de linguagem de grande porte, em um acordo que avaliou a startup em US$ 2,5 bilhões. O Character.AI, porém, continuou a existir de forma independente após o acordo.
Initial plugin text
Fonte original: abrir