A IA pode, de forma discreta, substituir um único preço público por várias propostas privadas para o mesmo produto, segundo uma nova investigação.
Esta conclusão transforma a fixação de preços no digital num problema de equidade, porque os compradores podem nunca perceber quando foram escolhidos para pagar mais.
A matemática escondida no checkout
No checkout online atual, o mesmo artigo já pode aparecer com valores diferentes para pessoas diferentes, exatamente no mesmo instante.
A Dra. Miroslava Marinova, da University of East London (UEL), defende que as plataformas conseguem empurrar o preço para lá dos sinais gerais do mercado e aproximá-lo do limite pessoal de cada comprador.
Como essas diferenças não são visíveis para quem as enfrenta, um único produto pode fragmentar-se em múltiplas versões invisíveis da mesma oferta.
É essa linha de fronteira que o texto delineia, antes de passar dos preços ocultos para a forma como a lei os deve enquadrar.
A IA calcula a “disposição para pagar” no preço personalizado
Por trás dessa dispersão escondida está a fixação algorítmica de preços personalizados: valores definidos por software e ajustados a uma pessoa, em vez de um preço público que reage ao conjunto dos consumidores.
Em vez de se limitar a acompanhar a procura, o sistema estima a disposição para pagar - o preço máximo que um comprador aceita antes de desistir.
Cliques, localização, histórico de compras e até momentos de hesitação podem tornar essa estimativa cada vez mais focada no indivíduo, e não num grupo.
Esta passagem de preços de mercado para preços por pessoa é o que transforma uma táctica conhecida do retalho num problema jurídico mais exigente.
Porque é que a fixação de preços pessoais parece injusta
Experiências com consumidores mostram que as pessoas classificam preços individuais como menos justos do que preços por segmentos, mesmo quando ambos são orientados por dados.
A comparação social alimenta essa reação, porque os compradores avaliam um preço face ao que outra pessoa aparentou obter.
“Quando a fixação de preços se torna invisível e personalizada, a justiça torna-se uma questão central”, afirmou a Dra. Marinova.
Quando os compradores suspeitam de uma penalização privada, a confiança cai rapidamente e até um sistema tecnicamente eficiente começa a parecer viciado.
Quando a posição dominante muda tudo
Ao abrigo do Artigo 102, a regra da União Europeia contra abusos, empresas em posição dominante não podem impor preços de venda injustos.
Isto é decisivo porque o artigo trata a fixação de preços pessoais oculta como um abuso exploratório - uma conduta que usa o poder de mercado diretamente contra os compradores.
Ao contrário de uma promoção transversal, a preocupação aqui é a desigualdade de tratamento sem uma razão clara que os consumidores consigam verificar.
O argumento torna-se mais forte quando uma empresa enfrenta pouca pressão concorrencial, motivo pelo qual a posição dominante fica no centro do debate.
Lei antiga, código novo
A equipa sustenta a sua tese recorrendo a direito da concorrência já existente, em vez de esperar por uma lei nova específica para IA.
Como o software pode atualizar preços de forma instantânea e silenciosa, os reguladores podem ter dificuldades em detetar padrões sem acesso a registos do próprio sistema.
“O próximo passo é os reguladores passarem da teoria à ação”, disse Marinova.
À medida que estes sistemas ficam mais opacos, a discussão afasta-se de medos abstratos sobre IA e aproxima-se de auditorias, explicações e prova de razões objetivas.
Porque o Reino Unido está atento
A Competition Act do Reino Unido já proíbe o abuso de posição dominante por empresas, incluindo preços de venda injustos.
Esta redação permite acolher preocupações semelhantes às que Marinova levanta no âmbito do direito da UE, mesmo depois de o Brexit ter alterado as instituições.
Uma consulta do Governo prevista para 2026 propõe também reforçar os poderes da Competition and Markets Authority (CMA) para investigar algoritmos tanto em matéria de concorrência como de proteção do consumidor.
Na prática, para os reguladores britânicos, a urgência pode estar mais em novos poderes do que em nova doutrina.
Falta de transparência
A transparência de preços degrada-se quando cada comprador vê uma proposta ligeiramente diferente e deixa de existir um preço público de referência.
Sem um ponto comum de comparação, as pessoas não conseguem saber se fizeram um bom negócio ou se foram selecionadas para pagar mais.
Ferramentas de pesquisa e comparadores ajudam apenas quando os comerciantes expõem preços comparáveis - algo que a personalização oculta foi desenhada para contornar.
Nessas condições, a disciplina concorrencial enfraquece, sobretudo se uma plataforma controlar a pesquisa, os dados, o pagamento e o checkout final.
Diferenças legítimas versus diferenças ocultas
Nem todo o preço personalizado é automaticamente abusivo, porque as empresas frequentemente cobram valores diferentes por motivos reais de custos ou de fidelização.
Descontos para estudantes, saldos de escoamento e custos de envio variáveis por localização assentam em razões que, em geral, os compradores conseguem reconhecer.
Quando o preço é oculto e adaptado a indivíduos, os consumidores têm pouca capacidade para contestar.
Nesse ponto, um sistema de preços deixa de parecer mera eficiência comercial e começa a assemelhar-se a extração privada de valor junto dos compradores.
O que os reguladores podem fazer já
Uma supervisão eficaz começa com registos que mostrem que dados influenciaram um preço, quando o software foi alterado e porquê.
Os auditores precisam de inspecionar variáveis de entrada, regras de override e resultados entre grupos, e não apenas o “objetivo” declarado do código.
Os reguladores podem também necessitar de poderes para testar sistemas em produção - e não só pedir documentação. Se conseguirem reconstruir o percurso do preço, as empresas terão mais dificuldade em esconder discriminação dentro da automatização.
A fixação de preços com IA torna-se mais preocupante quando converte dados privados em preços privados e depois oculta ao comprador a razão.
Divulgação mais clara, poderes de investigação reforçados e melhores trilhos de auditoria não proibiriam a personalização, mas tornariam mais fácil provar a segmentação injusta.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário