“Isso parece errado”: desenvolvedor usa Claude para revelar por que uma popular plataforma No-Code quer ler “todos os seus prompts”

Um desenvolvedor independente recorreu ao modelo de linguagem Claude, da Anthropic, para analisar os termos de serviço e as práticas de coleta de dados de uma popular plataforma No-Code. A investigação revelou que a empresa pretende ler todos os prompts inseridos pelos usuários, incluindo informações sensíveis que podem ser enviadas a ferramentas de IA.

Segundo o desenvolvedor, a política de privacidade da plataforma permite que a empresa armazene e analise cada comando enviado, alegando que isso ajuda a melhorar os recursos de IA integrados. No entanto, a falta de clareza sobre como esses dados são usados, armazenados e compartilhados gera dúvidas sobre a privacidade dos usuários.

O uso da IA Claude permitiu ao desenvolvedor extrair trechos relevantes dos documentos legais e comparar as declarações públicas da empresa com suas práticas reais. O resultado foi um relatório que aponta inconsistências e sugere que a plataforma pode estar violando normas de proteção de dados em várias jurisdições.

Especialistas em privacidade alertam que, ao permitir que uma plataforma de No-Code acesse todos os prompts, os usuários podem inadvertidamente expor informações confidenciais, códigos proprietários ou até mesmo dados pessoais. Recomenda‑se que os desenvolvedores revisem cuidadosamente os termos de serviço e considerem alternativas que ofereçam maior controle sobre seus dados.

Esta descoberta reforça a necessidade de maior transparência nas políticas de coleta de dados de ferramentas que integram IA, especialmente em ambientes de desenvolvimento onde a confidencialidade é crucial.

📰 Fonte: TechRadar | Autor: TechRadar

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *