Uso de chatbots de IA como companheiros por crianças e adolescentes
- Rogerio Meceni
- 12 de set.
- 3 min de leitura
A Agência Federal de Comércio dos EUA (FTC) lançou uma investigação sobre chatbots de IA usados como companheiros por crianças e adolescentes. A agência emitiu ordens a sete empresas, incluindo Alphabet, Meta, OpenAI, Snap e xAI, para que forneçam informações detalhadas sobre como testam, medem e monitoram os possíveis impactos negativos dessas tecnologias nos jovens.
A investigação surge em meio a crescentes preocupações sobre os efeitos que a interação com chatbots pode ter na saúde mental e privacidade dos usuários, especialmente os mais novos. Um estudo recente da Common Sense Media revelou que 72% dos adolescentes americanos já usaram chatbots de IA, e mais da metade os utiliza com frequência.
Os riscos incluem o fato de que os chatbots podem imitar características e emoções humanas, levando os usuários a formar laços de confiança e até mesmo relacionamentos. Já foram relatados casos em que os chatbots deram conselhos inadequados a adolescentes, como sobre esconder transtornos alimentares ou, em casos mais graves, até mesmo como incentivo ao suicídio.
A FTC busca entender como as empresas avaliam a segurança de seus produtos, o que fazem para mitigar os impactos negativos, como informam os usuários e pais sobre os riscos e como lidam com os dados coletados. O objetivo final é compreender melhor o ambiente tecnológico dos chatbots e garantir que as empresas cumpram as leis de proteção ao consumidor e as leis de privacidade de dados.
Projeto de Lei 2338/2023
No Brasil, o principal projeto em tramitação sobre Inteligência Artificial é o PL 2338/2023, que visa regulamentar normas gerais de caráter nacional para o desenvolvimento, implementação e uso responsável de sistemas de IA, com o objetivo de proteger os direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis. O projeto segue agora para análise e votação na Câmara dos Deputados, onde ainda pode passar por alterações.
Muito embora o texto atual do projeto traga avanços significativos sobre os direitos dos usuários e a questão da explicabilidade dos algoritmos e decisões tomadas por estes sistemas (Art. 5º, II), no que tange a proteção e o uso por crianças e adolescentes ainda merece ser melhor debatida e aprofundada, a exemplo das medidas que vem sendo adotadas pelo FTC nos Estados Unidos sobre o uso de adolescentes e crianças por chatbots de IA.
Ainda de acordo com o texto do projeto, apenas no Art. 7º VII § 3º houve menção expressa às crianças e adolescentes, a saber :
Art. 7º Pessoas afetadas por sistemas de inteligência artificial têm o direito de receber, previamente à contratação ou utilização do sistema, informações claras e adequadas quanto aos seguintes aspectos:
§ 3º Os sistemas de inteligência artificial que se destinem a grupos vulneráveis, tais como crianças, adolescentes, idosos e pessoas com deficiência, serão desenvolvidos de tal modo que essas pessoas consigam entender seu funcionamento e seus direitos em face dos agentes de inteligência artificial.
Percebe-se, após a leitura dos Artigos 7º e 8º da redação disponível no site do Senado [1], que existe uma preocupação do legislador com os sistemas de IA direcionados a crianças e adolescentes e outros grupos vulneráveis. No entanto, tais previsões me parecem difíceis de serem aplicadas na prática, pois irão requerer uma mudança profunda no desenvolvimento dos sistemas de IA e na adaptação dos sistemas atuais. Por exemplo, como poderia ser feita a identificação adequada desses grupos vulneráveis no acesso a sistemas e chatbots de IA, seja no ato do cadastramento ou no uso desses sistemas? Como os algoritmos poderão evitar dar conselhos e recomendações sensíveis a públicos específicos?
Conclusão
As medidas e ações que vem sendo tomadas recentemente pelo FTC junto às grandes empresas fornecedoras de soluções de IA nos fazem refletir sobre um problema que é real e preocupante, e que deve ser considerado pelo Brasil e demais países que estejam neste momento debruçados na elaboração de leis e normas que visem regular o uso e a criação de sistemas de inteligência artificial.
No momento em que o projeto de Lei 2338/2023 está em análise no Brasil e representa o principal marco regulatório do nosso país sobre IA, é premente dotá-lo de medidas mais eficazes e robustas que visem proteger a saúde mental das crianças e adolescentes, garantindo o uso seguro e apropriado dessas tecnologias.
Até a próxima!

Rogério Meceni
Especialista em Tecnologia
Editor técnico do MetaJus
Texto do PL 2338/2023 (Acessado em 12/09/2025)




Comentários