Entrar
Cadastro
Entrar
Publicidade
Publicidade
Receba notícias do Congresso em Foco:
Tecnologia
25/2/2026 13:00
A substituição do atendimento humano por sistemas automatizados consolidou-se como prática dominante em bancos, telecomunicações e grandes plataformas. O discurso empresarial insiste na promessa de eficiência operacional.
Os registros oficiais mostram outra realidade. Dados consolidados do Sistema Nacional de Informações de Defesa do Consumidor (Sindec) e da plataforma Consumidor.gov.br, referentes ao fechamento de 2025, indicam que problemas de atendimento e ausência de retorno já concentram perto de 40% das reclamações nas capitais brasileiras.
Esse cenário entra em choque direto com o novo conjunto de regras legal. O projeto de lei nº 2338/2023, conhecido como Marco Legal da Inteligência Artificial (IA), aprovado no Senado em 2024 e amadurecido na Câmara ao longo de 2025, passou a orientar o ambiente regulatório em 2026 como realidade normativa em fase final de entrada em vigor.
Entre seus pilares estão o direito à revisão humana e a obrigação de transparência em sistemas considerados de alto risco. O silenciamento algorítmico deixa de ser falha operacional e passa a configurar violação legal.
A atualização do Decreto do Serviço de Atendimento ao Consumidor (SAC) reforça esse entendimento. As diretrizes implementadas pela Secretaria Nacional do Consumidor (Senacon) em 2025 e consolidadas neste início de 2026 vedam o encerramento automático de sessões por inteligência artificial (IA) sem a conclusão do serviço ou o transbordo para um atendente humano.
O robô não pode ser um caminho sem saída. A tecnologia deve encurtar o percurso até a solução, não bloquear o acesso ao diálogo.
Quando o atendimento vira teste de resistência, a eficiência deixa de ser progresso e passa a ser abuso de direito algorítmico.
A adoção acelerada de IA generativa elevou o risco a outro patamar. Diferentemente dos antigos chatbots baseados em fluxos rígidos, esses sistemas produzem respostas elaboradas enquanto aprendem com cada interação.
Na prática, muitas empresas passaram a substituir o atendimento pelo treinamento de modelos às custas do tempo e da paciência do cliente. A IA generativa amplia a assimetria de informação. O consumidor enfrenta uma máquina que detém todos os dados, mas nenhuma autoridade para resolver conflitos. É o ápice da vulnerabilidade.
O impacto já transborda para o Judiciário. A Resolução nº 615/2025 do Conselho Nacional de Justiça (CNJ), ao estabelecer parâmetros para o uso de IA nos tribunais, influenciou a forma como magistrados observam empresas que escondem atendentes humanos atrás de sistemas automatizados falhos.
O resultado é o aumento de ações de baixa complexidade, especialmente contra os setores bancário e de telecomunicações, líderes históricos em reclamações. Cada processo judicial nasce de um atendimento que falhou na origem.
O custo desse modelo é coletivo. A eficiência prometida converteu-se em passivo jurídico, desgaste reputacional e sobrecarga institucional. Cortar o humano pode reduzir planilhas no curto prazo, mas amplia litígios, desorganiza o mercado e corrói a confiança do consumidor. Nenhuma economia contábil compensa esse efeito sistêmico.
Esse uso distorcido da tecnologia contradiz a própria Estratégia Brasileira de Inteligência Artificial (EBIA) e o plano IA para o Bem de Todos, concebidos para orientar uma inovação alinhada ao interesse público. Utilizar robôs para evitar o atendimento não é inovação. É abuso de direito algorítmico.
Nenhum algoritmo sente a urgência de um cartão roubado ou a angústia de um benefício bloqueado. No Brasil de 2026, a tecnologia deve servir para escalar a solução, nunca para escalar o descaso. O transbordo humano não é custo operacional. É a garantia de que o Código de Defesa do Consumidor continua valendo em código binário.
O texto acima expressa a visão de quem o assina, não necessariamente do Congresso em Foco. Se você quer publicar algo sobre o mesmo tema, mas com um diferente ponto de vista, envie sua sugestão de texto para [email protected].
Temas