Imagine uma tecnologia capaz de escrever um ótimo texto ou solucionar um problema matemático em segundos, usando apenas algumas recomendações de conteúdo. Letras de músicas no estilo de artistas consagrados e até mesmo reportagens como a que você está lendo agora. É isso que faz o ChatGPT, um chatbot que usa Inteligência Artificial (IA) para dar respostas e até conselhos sobre diversos assuntos. Desenvolvido pela empresa OpenAI, o software gratuito já foi testado por mais de um milhão de pessoas e tem atraído a atenção de grandes empresas, a exemplo da Microsoft e do Google.
O hype em torno do ChatGPT permanece intenso. A ferramenta vem se popularizando por respostas interessantes a problemas mundanos, que vão desde a melhor a escalação do seu time do coração, até qual seria a taxa de juros real neutra no Brasil. A Goldman Sachs, em nota lançada para investidores no final de março de 2023, afirma que a Inteligência Artificial (IA) pode aumentar o PIB global em 7%.
A instituição financeira acredita que a tecnologia pode aumentar a automação de tarefas, a economia com mão de obra e a produtividade do trabalho. No entanto, a ferramenta é um grande
desafio para a área de segurança das empresas. A popularidade do ChatGPT é um desafio para a área de segurança de empresas e pode atrair a atenção de golpistas virtuais.
Em entrevista conosco o Dr. Ítalo Miqueias da Silva Alves, Jurista. Pesquisador. Palestrante em universidades públicas e privadas. Escritor e doutrinador na área jurídica. Pós graduado em Direito Processual Penal, Direito Processual Civil, Direito Constitucional e Direito Digital. Especialista em Direito Contratual pela Harvard University. Autor das seguintes obras literárias na seara jurídica: O Instituto da Tutela Provisória Segundo a Lei 13.105/2015; Constituição dos Estados Unidos da América: Traduzida, Comentada e Interpretada; Manual da Prática Jurídica: Português Jurídico da Prática Forense; Os Impactos da Inteligência Artificial no Processo Jurídico Constitutivo do Direito Pós-Moderno. É autor de diversos artigos científicos nas mais renomadas revistas jurídicas do Brasil. É membro dos grupos de pesquisa de Direito Digital e Inteligência Artificial na Bahia, além dos grupos de pesquisa de Desenvolvimento Jurídico de Inteligência Artificial e Direito Quântico. Expoente em trabalhos e obras jurídicas de cunho internacional.
“Ferramentas NPL (Natural Language Processing) como o caso do chatGPT, aprendem constantemente para a criação de conteúdo. Com a versão 4, a ferramenta consegue entregar resultados ainda mais humanos e processar maior quantidade de dados, incluindo links. Analisando campanhas que obtiveram êxito e dados existentes, criar campanhas de phishing eficientes possam ser realizados com pouco conhecimento técnico. Além disso, ainda existem caminhos no ChatGPT ou mesmo em outras ferramentas de NPL como GitHub Copilot ajudem a um potencial criminoso com pouco conhecimento técnico consiga produzir códigos maliciosos para criação de ransomware, por exemplo”, avalia Miqueias Alves.
Doutor Ítalo Miqueias ressalta ainda que “pela volumosa ingestão de dados corporativos confidenciais na ferramenta que coloca as organizações em risco. A Europol, agência da União Europeia para a cooperação policial, diz que o chatbot de inteligência artificial pode ser utilizado em fraudes e engenharia social, desinformação e cibercrime”.
Somente o fato de questionar sobre atividades ilegais ou ataques hacker nas consultas viola as políticas de uso do chat. No entanto, o ChatGPT é “criativo”. Perguntar indiretamente fará com que o chat nos forneça as respostas passo a passo detalhadas. E com um pouco de conhecimento técnico e inputs corretos, existem questões que podem instruir sobre como automatizar um ataque de rede usando ferramentas conhecidas e comerciais processadas e códigos funcionais serão obtidos. Basicamente, ele tem recursos para codificar e modificar exploits conhecidos, malware, LOLBIN (Living off the Land Binaries) — código que pode ser distribuído globalmente — e com isso, maiores possibilidades de desenvolver ataques Zero-Day apenas perguntando corretamente.
Perguntamos ao Dr. Ítalo Miqueias: Quais as aplicações jurídicas quanto ao uso prejudicial da inteligência artificial ChatGTP no direito brasileiro?
O uso indiscriminado das ferramentas de inteligência artificial por linguagem natural como no caso ChatGTP pode ensejar a responsabilização nas esferas civis, penais e administrativas.
As situações que podem gerar responsabilidade civil pelo uso prejudicial do ChatGTP são diversas, desde danos materiais causados por terceiros, danos morais e a imagem, a honra, intimidade e vida privada dos indivíduos e a proteção de seus dados por meio da Lei 13.709/2018 conhecida como Lei Geral de Proteção de Dados.
Todavia, é importante mencionar que a responsabilidade pelo uso nocivo do ChatGPT e Bard não é do modelo de linguagem natural de inteligência artificial em si, mas sim dos indivíduos ou organizações que programam e usam o modelo de maneira inadequada ou prejudicial.
A quem responsabilizar civilmente, quando um chatbot de inteligência artificial, como o ChatGPT, produz um texto sobre uma pessoa com informações convincentes, atribuídas a fontes confiáveis, mas inteiramente falsas e difamatórias?
A difamação é um dos crimes contra a honra tipificados no ordenamento jurídico brasileiro. É a imputação ofensiva atribuída contra a honorabilidade de alguém com a intenção de desacreditá-lo na sociedade em que vive, e provocar contra ele desprezo ou menosprezo público. Os usuários responsáveis podem ser processados criminalmente e condenados à pena de detenção de 3 meses a 1 ano, além da multa, conforme o art. 139 do Código Penal. A plataforma de inteligência artificial da Open IA poderá ser suspensa para a retirada das informações difamatórias, e passível a responsabilização civil pelos danos morais e a imagem advindos da prática criminosa pelo ChatGTP.
Autoria:
Direito News
Muito bom, ótimos esclarecimentos.