Inteligência artificial ética e responsável – uma luz sobre o debate

0
124

No último 6 de julho, foi aprovado, na Câmara dos Deputados, o regime de urgência para o projeto de lei 21/20, de autoria do deputado Eduardo Bismarck (PDT – CE), que dispõe princípios, direitos e deveres sobre o uso da inteligência artificial no Brasil. No momento, o projeto aguarda votação na Câmara.

A criação de um marco legal envolvendo o tema pressupõe o respeito aos direitos humanos, a não discriminação, a pluralidade, a livre iniciativa e a privacidade de dados. Além desses elementos, o uso da inteligência artificial terá como princípio fundamental a garantia de transparência sobre sua utilização e funcionamento.

Quais as ideias centrais desse projeto de lei?

Publicidade

O projeto traz elementos bastante interessantes sobre o uso da inteligência artificial no meio corporativo. Um deles se refere à criação do agente de IA, tanto do ponto de vista de desenvolvimento, quanto sob a ótica de operação. Esses profissionais terão algumas responsabilidades como, por exemplo, responder legalmente por decisões tomadas pelas estruturas de IA e garantir que os dados utilizados, assim como a forma como foram capturados, estão em consonância com a LGPD – Lei Geral de Proteção de Dados.

Além disso, nesse projeto de lei, está prevista a criação de um relatório de inteligência artificial, a ser elaborado pelos agentes de IA, na forma de uma documentação detalhada de como a IA foi criada e como tem sido utilizada para processos de tomada de decisão. Esse documento poderá ser solicitado pelas autoridades, de modo a garantir o funcionamento ético e transparente da tecnologia, assim como sugerir padrões e melhorias no processo.

Na prática, qual o impacto dessa lei sobre os processos de aplicação e implementação de algoritmos de inteligência artificial?

Via de regra, não há um padrão claro de como a inteligência artificial tem sido utilizada para tomada de decisão. Isso varia muito de um segmento para outro, assim como em função do problema de negócio a ser endereçado.

Por exemplo, na indústria financeira, é muito comum o uso de inteligência artificial para tomada de decisões em diferentes partes do processo como gestão de risco de crédito, gestão de cobrança e recuperação de crédito, prevenção à fraude e gestão de campanhas, só para citar algumas aplicações. Por conta do alto nível de regulação dessa indústria, cada vez mais, os modelos analíticos gerados precisam ser transparentes e explicáveis, de modo a justificar como cada modelo chega a decisões específicas, não apenas para responder a auditorias e processos de validação internos e externos, como também para minimizar riscos associados a preconceito, discriminação e, até mesmo, erros operacionais de aplicação da tecnologia em ambientes de produção.

No entanto, nem todas as aplicações de IA apresentam esse nível de transparência e controle. Um caso típico diz respeito a processos de biometria facial, que, por meio de visão computacional, baseada em complexos modelos de redes neurais, estabelecem mecanismos de reconhecimento facial para, por exemplo, determinar a probabilidade de uma pessoa pertencer a um grupo de suspeitos, procurados pela justiça.

O documentário Coded Bias, disponível na plataforma de streaming Netflix, baseado na pesquisa acadêmica produzida no MIT – Massachussets Institute of Technology, pela pesquisadora Joy Buolamwini, levantou uma série de discussões acerca dos vieses associados a esses modelos de classificação presentes em mecanismos de biometria facial de vários provedores de tecnologia como IBM, Microsoft, Amazon e Google. Um desses vieses dizia respeito a taxas bastante díspares de classificação correta do algoritmo para distintos subgrupos da população, acertando muito mais para o caso de homens brancos e muito menos para o caso de mulheres negras.

Em sua pesquisa, Joy Buolamwini, identificou esse viés no algoritmo de reconhecimento facial da IBM, inclusive ajudando a gigante de tecnologia a melhorar seu processo de coleta de dados e desenvolvimento de um modelo muito mais abrangente e com menos disparidades de classificação em diferentes grupos da população.

Se esse projeto de lei for aprovado, quais os potenciais impactos nos mecanismos atuais de construção e implementação de processos de inteligência artificial no Brasil?

Um dos grandes impactos dessa lei diz respeito ao nível de detalhamento dos mecanismos de tomada de decisão da IA. De uma forma geral e gradativa, os executivos das empresas de setores diversos terão mais preocupação em entender as saídas da inteligência artificial como nível de importância das variáveis dos modelos, como ocorre o cálculo dos modelos, não apenas de um ponto de vista técnico, mas também, e principalmente, de um ponto de vista regulatório e social, dando atenção a cada detalhe do processo de aplicação e execução da tecnologia, atribuindo muito mais importância à transparência dos modelos e explicabilidade de seu funcionamento, prestando contas à sociedade e garantindo imparcialidade das decisões, assim como aderência às legislações vigentes no país que passam pela questão de dados e uso da inteligência artificial.

Autor:

Marcelo Fernandes, gerente de Desenvolvimento de Negócios em Telecom, Seguros e Otimização da FICO América Latina.

Deixe uma resposta