O Impacto da Inteligência Artificial
Quando falamos de IA, algumas pessoas lembram do filme de ficção científica “O Exterminador do Futuro”, no qual a Inteligência Artificial conhecida como SKYNET se tornou consciente e resolveu exterminar a humanidade. Nos filmes, nos deparamos com o Exterminador, que além de conseguir imitar a voz, consegue imitar a aparência das pessoas. Embora não tenhamos a figura do Exterminador, a tecnologia está presente no meio digital, com ferramentas de IA como o Deep Voice, que consegue imitar vozes de pessoas, transcrevendo textos, e ferramentas de deepfake, que imitam a aparência das pessoas.
Nos últimos anos, observamos o aumento do uso dessas tecnologias na geração de conteúdo, com pessoas utilizando o deepfake para criar vídeos em redes sociais ou realizar montagens de vídeo, como a imagem do Silvio Santos apresentando o Jornal Nacional em uma montagem de vídeo, ou sobrepondo seu próprio rosto em vídeos de artistas em plataformas digitais. Esses são alguns exemplos. Como a IA é uma tecnologia que pode ser utilizada tanto para o bem quanto para o mal, é importante analisar essa tecnologia.
A tecnologia de deepfake, que utiliza algoritmos de inteligência artificial para criar vídeos ou áudios falsos extremamente realistas, tem um impacto significativo em várias áreas. Aqui estão alguns dos principais impactos do deepfake:
Manipulação de informações: A capacidade de criar vídeos falsos convincentes pode levar à disseminação de informações enganosas e desinformação em larga escala. Deepfakes podem ser usados para criar declarações falsas de figuras públicas, políticos ou celebridades, comprometendo a confiança na mídia e afetando negativamente a sociedade.
Fraudes e golpes: Deepfakes podem ser usados para enganar pessoas e realizar golpes. Por exemplo, criminosos podem criar vídeos falsos de indivíduos solicitando transferências de dinheiro ou fornecendo informações confidenciais, levando a perdas financeiras e danos à reputação.
Exploração sexual e difamação: A tecnologia de deepfake também pode ser usada de forma maliciosa para criar conteúdo pornográfico falso, envolvendo pessoas que não consentiram em participar. Isso resulta em danos emocionais e impactos negativos na vida pessoal e profissional das vítimas.
Política e desestabilização social: Deepfakes podem ser utilizados como ferramentas de desinformação em campanhas políticas, com o objetivo de influenciar eleições ou polarizar a opinião pública. A disseminação de vídeos falsos de políticos pode ter sérias consequências na estabilidade social e nos processos democráticos.
Privacidade e segurança: A capacidade de criar vídeos falsos pode ameaçar a privacidade das pessoas, uma vez que é possível inserir indivíduos em situações que nunca ocorreram. Isso pode resultar em danos pessoais e profissionais, além de dificultar a distinção entre o que é real e o que é falso.
Diante desses impactos negativos, é importante desenvolver tecnologias e estratégias de detecção de deepfakes, bem como estabelecer regulamentações e políticas que abordem essas questões e protejam a sociedade contra o uso malicioso dessa tecnologia.
No Brasil, foi apresentado no Senado, no último dia 03/05, um Projeto de Lei Nº 2338 de 2023 com a finalidade de regulamentar o uso da Inteligência Artificial. O texto encontra-se em tramitação e consulta pública. O projeto estabelece normas gerais para o desenvolvimento e implementação responsável de sistemas seguros que envolvem a tecnologia, com o objetivo de proteger os direitos fundamentais dos brasileiros.
O projeto de lei possui cinco pilares fundamentais: princípios, direitos dos afetados, classificação de riscos, obrigações e requisitos de governança, e supervisão e responsabilização. Uma das disposições presentes no projeto de lei é a exigência de informação antecipada acerca das interações com sistemas de inteligência artificial. Além disso, prevê-se a necessidade de explicação sobre as decisões ou recomendações tomadas por esses sistemas, concedendo às pessoas o direito de questioná-las e solicitar intervenção humana. O texto também estabelece que a discriminação por parte de sistemas de IA é proibida, garantindo igualdade de tratamento para todos.
O projeto proíbe o uso de sistemas de inteligência artificial (IA) que promovam atitudes perigosas ou prejudiciais à saúde ou segurança. Também é proibido explorar vulnerabilidades de grupos específicos e avaliar, classificar ou ranquear pessoas com base em seus comportamentos.
O uso de sistemas de identificação biométrica à distância em espaços públicos só é permitido mediante previsão em lei federal específica e autorização judicial relacionada a casos individuais de crimes graves.
O projeto lista os sistemas de IA considerados de alto risco, para os quais são necessárias avaliação de impacto algorítmico e adoção de medidas de governança, incluindo transparência e gestão de dados.
Em relação à responsabilidade civil, o fornecedor ou operador de sistemas de IA é obrigado a reparar integralmente qualquer dano causado, independentemente do grau de autonomia do sistema.
Neste artigo, exploramos alguns exemplos de IA e o projeto de lei apresentado no Senado brasileiro. Ressalto que existem outras tecnologias, como as assistentes virtuais como a Alexa, sistemas de auxílio e tomada de decisão, o Chat GPT, entre outras tecnologias baseadas em deep learning e Inteligência Artificial.