O artigo objetiva discutir a possibilidade de decisões automa-
tizadas consistirem em atos de violência, bem como as possíveis respos-
tas do Direito frente a esta problemática. Para tanto, elege-se o método
de investigação hipotético dedutivo, por meio de pesquisa bibliográfica.
A violência, conforme delineado por Byung-Chul Han, é algo que não
desaparece com o decurso do tempo, mas ao contrário, reinventa-se e
se transforma. No contexto de uma sociedade hiperconectada, a toma-
da de decisões por meio de algoritmos ou Inteligência Artificial é uma
realidade cada vez mais frequente, nas mais variadas áreas, como saúde,
segurança, educação e finanças. O algoritmo, sozinho, não é capaz de
promover um ato de violência, no entanto, pode instrumentalizá-lo, visto
que é capaz de orientar decisões críticas no setor bélico, por exemplo,
assim como potencializar e integrar modelos que sujeitam indivíduos a
standards e scores impostos, que por vezes consistem em práticas dis-
criminatórias injustas. Considerando que o tratamento de dados pes-
soais faz parte do processo de tomada de decisão, torna-se aplicável
legislações voltadas a proteção de dados, como a GDPR europeia e a
LGPD brasileira, as quais, além de fixar princípios, obrigações e direitos,
asseguram ao indivíduo o direito de não submissão e de revisão da de-
cisão automatizada.