A IA cria sistemas capazes de pensar ou agir na análise de informações, tomar decisões, resolver problemas e aprender com a própria experiência, a partir de grande quantidade de dados.
E se a máquina errar, quem deverá ser responsabilizado?
Artigo publicado em Valor (8.10) pelos advogados Antônio Silvério e André Coura, sob o tema “Algoritmos: quem responde quando a máquina erra?”, considera que, por mais sofisticados que sejam os sistemas autônomos, eles não estão imunes a vieses, falhas ou interpretações equivocadas de dados.
A matéria enfoca o atual momento em que as empresas adotam de maneira intensa a IA para, dentre outras questões, prevenir fraudes, monitorar transações e automatizar auditorias, daí porque a necessidade de entender os riscos jurídicos que surgem quando a tecnologia falha e o impacto que isso pode ter sobre a reputação e governança da empresa.
A IA vem redefinindo a forma como as corporações agem de forma geral, especialmente na prevenção de riscos e prontas respostas a crises, mas a supervisão e atenção incondicional são fundamentais para evitar danos impensados.
A União Europeia é pioneira na criação de normas para o uso da IA, em projeto que classifica os sistemas segundo seu grau de risco, aplicando regras mais rígidas para aqueles considerados de “alto risco” — como os que atuam nas áreas de saúde, segurança, educação, transporte e aplicação da lei. Visa proteger direitos fundamentais e a segurança dos cidadãos, impondo obrigações específicas para os desenvolvedores e usuários desses sistemas, com transparência, decisões compreensíveis e registros que possibilitem auditorias e investigações.
No Brasil o Projeto de Lei 2338/2023 está em trâmite no Senado visando à criação de um marco legal para regulamentar a IA por aqui.
Por enquanto o que temos é o Código Civil, segundo o qual, aquele que, por ato ilícito, causar dano material ou moral a outrem, fica obrigado a repará-lo.
O Código de Defesa do Consumidor prevê a responsabilidade solidária entre todos os envolvidos na cadeia de fornecimento de produtos e serviços: do desenvolvedor do software, o fabricante do equipamento que roda a IA, o fornecedor do serviço até o vendedor final.
Fabricantes e prestadores de serviços que oferecem soluções baseadas em IA serão chamados a indenizar vítimas por falhas no funcionamento desses sistemas, respondendo objetivamente, mesmo que não tenham tido culpa direta. Se o erro gerado pela IA estiver diretamente ligado a uma ação ou omissão humana, seja do programador ou do operador que usou a tecnologia de maneira incorreta, haverá de se provar culpa por negligência, imperícia ou imprudência.
Isso porque a IA não tem personalidade jurídica, não possui consciência, vontade própria ou senso moral e não pode ser processada nem responder judicialmente por seus atos, nem tem patrimônio próprio para arcar com indenizações.
De toda forma, fica claro que o usuário da IA não é mero espectador, mas um agente ativo e responsável.
E é por isso que a Justiça vem multando Advogados por apresentarem manifestações processuais com artigos de lei inexistentes e jurisprudência inverídica, gerados por inteligência artificial, o que configura a prática de litigância de má-fé e ato atentatório à dignidade da Justiça. A OAB, por seu Tribunal de Ética, vem punindo advogados que assim agem.
Então, se “der zika” pelas mãos dos Advogados, a punição já ocorre, tanto pelo Judiciário quanto pela OAB, independentemente de legislação específica que há por vir.

Colaborador: Dr. Willian Nagib Filho advogado e sócio do escritório de advocacia; Nicolau Laiun, Lorenzon e Nagib Advogados Associados





