Especialistas debatem avanços da inteligência artificial retratados no cinema

por Victoria Xavier*

No mundo do cinema, o tema sobre inteligência artificial não é necessariamente uma novidade. Em 1968, o diretor Stanley Kubrick já dava um panorama da tecnologia com o filme “2001 – Uma Odisséia no Espaço”. Nele, o sistema computacional da espaçonave, HAL 2000, interagia com a tripulação. Contudo, HAL foi retratado como uma espécie de “máquina vingativa”, pois ao ouvir conversas de que poderia ser desligado, acabou por armar uma emboscada e matar parte dos astronautas envolvidos na missão a Júpiter.

Já em 2018, a Netflix lançou o filme Tau, em que a inteligência artificial, no comando de uma casa futurista e inteligente, se aproxima de Julia (Maika Monroe), ao ponto de Tau não medir esforços para conseguir atenção da moça, colocando a vida de todos na casa em constante perigo. 

O cinema sempre apelou para o lado vingativo da máquina, uma forma de chamar atenção e brincar com nossos medos em relação ao futuro. O enredo de robôs assassinos não sai de moda. Porém, até que ponto a ficção é ficção? 

Para Éderson de Almeida Pedro, sócio-fundador da empresa Gautica, professor de programação na Universidade de Caxias do Sul (UCS), as histórias assustadoras estão resguardadas para o universo cinematográfico. 

“Não acredito que chegaremos a tal ponto, baseado no meu conhecimento sobre como os computadores funcionam. As máquinas hoje são “burras”, compostas apenas de zeros e uns. É a forma como entendem e abstraem o mundo, mas sempre por instrução humana”, diz ele, que também é membro da Raies (Rede de Inteligência Artificial Ética e Segura).

“Por mais que hoje tenhamos as IAs generativas, que de certa forma surpreende a muitos, principalmente com a criação de conteúdos muito convincentes, e não necessariamente verdadeiros, elas são baseadas com uma lógica matemática. Não há, de fato, uma análise do contexto, do objeto”, explica. 

“Em relação ao sentimento que uma máquina pudesse gerar, como ódio, um sentimento de vingança, ou uma retaliação, retratado bastante nos filmes, acho pouco provável pela tecnologia que temos disponível hoje”, afirma o professor. 

No entanto, o empresário não descarta por completo o cenário retratado nas produções audiovisuais em virtude do avanço no desenvolvimento da tecnologia. “Se fala sobre uma nova computação, que não é binária, essa de 0 e 1, mas uma computação quântica, com muito mais do que simplesmente 0 e 1. Nesse ponto temos uma incógnita. As possibilidades que os computadores terão a partir da computação quântica é algo que nós descobriremos, mas, possivelmente, não na nossa geração”, aponta Almeida Pedro.

Lucas Taufer, pesquisador na Universidade da Pennsylvania, nos Estados Unidos, e doutorando em Filosofia na UCS (Universidade de Caxias do Sul), também acredita que a Inteligência Artificial ainda está impossibilitada de fazer mal aos humanos.

“Hoje ocorre o seguinte, por exemplo, quando sinto dor posso mapear minhas redes neurais, meu cérebro, para identificar o que está acontecendo. Então, a dor passa a ser identificada como uma reação neurológica a um determinado estímulo. Isso é algo que a máquina pode ler, mas ela não pode sentir dor, essa é a diferença”, explica Taufer.

“A máquina consegue compreender a estrutura da dor, mas não sentir. Acredito que isso seria ainda mais inviável com sentimentos difusos (casos dos filmes de ficção)”, diz o pesquisador. 

A questão sobre uma máquina ser capaz de fazer mal ou não está relacionada com quem a programa, esclarece Almeida Pedro. “O que poderia impedir um robô de ter atitudes que façam mal ao humano? É a questão do como essa tecnologia é desenvolvida. A tecnologia faz somente o que é determinado por nós, os desenvolvedores, então, se não colocarmos este tipo de informação ou a blindarmos, ela não irá por esse caminho”, afirma.

Entretanto, o cenário atual traz um agravante. Os recentes acontecimentos na guerra entre Israel e Hamas colaboram para um contexto em que a tecnologia pode extrapolar os limites éticos em confrontos armados.

“Temos que considerar que não é só uma questão de tecnologia, mas sempre de humanos, e os humanos podem ser bons ou ser ruins”, diz Almeida Pedro.

*Material produzido na disciplina de Oficina de Webjornalismo do curso de Jornalismo da Universidade de Caxias do Sul. Professora Paula Sperb. 2023/4.

Deixe um comentário