As IAs se apresentam ao mundo com muitas inovações e, com elas, muitas implicações legais
por Vítor Vicente*
Aceitar termos de uso de diversos sites e aplicativos, incluindo os de Inteligência Artificial (IA), são uma realidade comum em nosso dia a dia. Com os avanços tecnológicos, passamos a vivenciar essa realidade durante o uso das novas IAs e, como de costume, aceitamos tudo sem sequer ler.
Essa prática pode trazer problemas ao usuário, como vazamento de dados e informações pessoais. Mas principalmente, é muito importante estar ciente das regulamentações que regem as novas tecnologias. Para isso, a advogada Carmen Lúcia Vicente, formada pela Universidade de Caxias do Sul (UCS), analisa as implicações jurídicas que envolvem as questões de privacidade dos usuários desses softwares.
Segundo ela, as nossas leis demoram muito para se adequar às inovações tecnológicas que surgem, tornando-se assim defasadas constantemente. “Nosso atual Código Civil não contempla sequer o início da evolução tecnológica com a criação da internet como conhecemos hoje”, explica Lúcia Vicente.
Apesar dessa lentidão apresentada pela legislação, as informações dos usuários online são protegidas pelo Marco Civil da Internet desde 2018. Também conhecida como Lei Geral de Proteção de Dados (LGPD) ou Lei Nº 13.709/2018, ela estabelece regras para o tratamento dos dados pessoais que vão desde proteção, passando pela base legal apta a justificar seu tratamento até a fiscalização e responsabilização dos envolvidos nesse tratamento.
No caso específico das IAs, a advogada afirma que, enquanto não promulgada uma lei vinculada diretamente às mesmas, a legislação responsável por qualquer programa que lide com dados pessoais deve ser associada à LGPD.
As Inteligências Artificiais, muitas vezes, lidam com questões de seus usuários que dizem respeito à origem racial ou étnica, convicção religiosa, opinião política, filosófica ou dados sobre saúde e vida sexual, os chamados dados sensíveis. Sobre essas informações privadas, a advogada completa: “O mau uso dessas informações pode resultar em discriminações, preconceitos, injustiças, violações de privacidade, aumento da desigualdade, disseminação de desinformação e manipulação de opiniões. Uma vez comprovadas tais violações há de se apurar os danos e buscar a responsabilização civil ou criminal do desenvolvedor, fabricante ou usuário”.
Como sabemos, muitos crimes são cometidos de maneira virtual e, obviamente, para as IAs isso não é diferente. Logo, um questionamento pode ser levantado: caso um software de Inteligência Artificial identifique crimes virtuais, medidas podem ser tomadas para responsabilizar o infrator? O professor Lucas Taufer, doutorando em filosofia pela UCS, afirmou que tais medidas implicariam em dilemas éticos e jurídicos.
“Em que medida que pode se autorizar que as conversas privadas que nós temos sejam monitoradas em relação a isso? […] Para os aplicativos se tenta atribuir uma responsabilidade de filtrar esse tipo de conteúdo, de usar instrumentos de inteligência artificial pra identificar, por exemplo, grupos em que existam mensagem de terrorismo, de pedofilia, de uma série de de crimes para banir os usuários que estejam fazendo isso”, analisa Taufer.
Porém, o professor lembra que “é preciso que exista uma previsão legal” e “não só uma pressão social ou mesmo das autoridades”.
As IAs são novidade para todos, inclusive seus desenvolvedores, que seguem entendendo como elas aprendem e evoluem. Naturalmente, as implicações legais buscam acompanhar essas inovações, com certo atraso. O mais importante para os usuários, até que sejam estabelecidas leis que de fato o protejam, é que haja atenção ao aceitar os termos de uso dessas tecnologias e cuidado para não compartilhar informações pessoais importantes, para evitar possíveis vazamentos de dados.
*Material produzido na disciplina de Oficina de Webjornalismo do curso de Jornalismo da Universidade de Caxias do Sul. Professora Paula Sperb. 2023/4.