
Um desenvolvedor independente recorreu ao modelo de linguagem Claude, da Anthropic, para analisar os termos de serviço e as práticas de coleta de dados de uma popular plataforma No-Code. A investigação revelou que a empresa pretende ler todos os prompts inseridos pelos usuários, incluindo informações sensíveis que podem ser enviadas a ferramentas de IA.
Segundo o desenvolvedor, a política de privacidade da plataforma permite que a empresa armazene e analise cada comando enviado, alegando que isso ajuda a melhorar os recursos de IA integrados. No entanto, a falta de clareza sobre como esses dados são usados, armazenados e compartilhados gera dúvidas sobre a privacidade dos usuários.
O uso da IA Claude permitiu ao desenvolvedor extrair trechos relevantes dos documentos legais e comparar as declarações públicas da empresa com suas práticas reais. O resultado foi um relatório que aponta inconsistências e sugere que a plataforma pode estar violando normas de proteção de dados em várias jurisdições.
Especialistas em privacidade alertam que, ao permitir que uma plataforma de No-Code acesse todos os prompts, os usuários podem inadvertidamente expor informações confidenciais, códigos proprietários ou até mesmo dados pessoais. Recomenda‑se que os desenvolvedores revisem cuidadosamente os termos de serviço e considerem alternativas que ofereçam maior controle sobre seus dados.
Esta descoberta reforça a necessidade de maior transparência nas políticas de coleta de dados de ferramentas que integram IA, especialmente em ambientes de desenvolvimento onde a confidencialidade é crucial.
📰 Fonte: TechRadar | Autor: TechRadar
