Plataforma Healthcare Management. Ideias, Tendências, Líderes e Práticas - Healthcare Management

“A culpa será de quem?”, por Giovanni Guido Cerri

Responsabilização por danos causados a pessoas pela Inteligência Artificial é uma conversa que se tenta evitar – mas que é necessária

Avanços na área de Inteligência Artificial (IA) ganham manchetes na imprensa, se tornam assunto em rodas de amigos, viram temas de aulas – como se diz, dão conversa. Parte desse fascínio vem, claro, de toda a ficção que se criou em tornou do conceito. E essa ficção se baseia, por sua vez, no relativo desconhecimento ainda existente acerca do que seja a inteligência. Uma excelente leitura sobre esta, aliás, é o já clássico “Estruturas da Mente – a Teoria das Inteligências Múltiplas”, do psicólogo Howard Gardner.

Uma outra faceta da IA que em geral não se encara muito – mas que está aí, não se pode fingir que ela não existe – é a da responsabilidade. Entregamos, com relativa liberalidade, algumas de nossas responsabilidades à IA. Programamos pagamentos nos apps de finanças. Damos acesso a arquivos de imagens e contatos telefônicos a certos outros aplicativos para que funcionem. Confiamos a algoritmos certas tarefas, o que nos livra tempo para dedicarmos a outras coisas. Cada vez mais sofisticados, esses aplicativos e algoritmos, e outros sistemas em que opera a IA, desempenham a contento o que esperamos que desempenhem. Uma parte não pequena de nosso cotidiano só acontece com relativa suavidade porque a IA está funcionando bem. Até que algo errado acontece.

Esforços para que a IA cometa cada vez menos erros estão em curso. Já existem algoritmos que tentam prevenir acidentes de trânsito, acidentes de trabalho em indústrias e na construção civil, e mesmo na área da saúde – ao possibilitar que diagnósticos sejam cada vez mais precisos. O aprendizado de máquina ajuda a reduzir a necessidade de intervenção humana – e reduz, assim, o risco de acidentes pelo chamado fator humano.

Mas erros de IA em reconhecimento facial, por exemplo, têm acontecido. Nos Estados Unidos, desde 2020 existem casos de pessoas que foram presas em razão de erros como esses. No mesmo ano, o sistema educacional do Reino Unido sofreu com uma onda de erros na atribuição de notas que deixou todos confusos – na raiz disso, estava a IA.

Erros como esses causam prejuízos materiais, palpáveis às pessoas. A vida de quem foi preso por um erro de IA pode ser virada de cabeça para baixo, com consequências que talvez nem possam ser totalmente revertidas. Pensemos ainda em erros que eventualmente possam afetar sistemas bancários – e colocar em risco nossas informações financeiras.

Uma das primeiras questões – se não a primeira mesmo – que surgem nesses contextos é: quem será responsabilizado? Vítimas dessas situações podem se ver diante de uma longa e extenuante batalha judicial, que pode mesmo terminar sem que o dano seja proporcionalmente reparado. A legislação para lidar com a responsabilidade por erros cometidos pela inteligência artificial estão no começo. No Brasil, temos já a LGPD (Lei Geral de Proteção de Dados Pessoais), que é de 2018. É seu papel proteger os dados pessoais e a privacidade de cada um, em meios digitais ou físicos. Mas a natureza mesma da evolução tecnológica levará a uma constante atualização das previsões legais – sob risco de que se torne obsoleta num curto espaço de tempo.

Os Estados Unidos estão surpreendentemente atrasados nesse quesito. Foi só no mês passado que a OSTP (Agência para Políticas de Ciência e Tecnologia, em tradução livre da sigla em inglês) entregou uma Declaração de Direitos da IA. Na Europa, autoridades acompanham de perto a atuação de empresas gigantes de tecnologia com respeito ao destino dado às informações que usuários compartilham online. E a dificuldade em se determinar responsabilidades se verifica nas muitas vezes em que os donos ou executivos principais dessas empresas são chamados a depor por comissões parlamentares, pelas lutas judiciais em que se engajam.

A digitalização é um processo que vai permear tudo e, até onde se pode ver, não vai parar. Como a IA estará cada vez mais presente e, ainda que cada vez mais eficiente, nunca será à prova de erros, a possibilidade de causar danos a alguém aumenta. O arcabouço técnico precisa seguir evoluindo para que a margem para erros seja cada vez menor. E o arcabouço legal para responsabilizar quem for o caso por erros tem de estar em pé e atualizado. E não só: fiscalização e aplicação de penalidades têm de atuar – ou então as leis serão só tigres de papel.

Veja mais posts relacionados

Próximo Post

Healthcare Management – Edição 92

Healthcare - Edição 92

Healthcare - Edição 92

COLUNISTAS