Quem tem medo de IA?
Qual deve ser o limite da tecnologia? Em que ponto o desenvolvimento científico
deixa de ser um fator de emancipação humana e passa a ameaçar o bem-estar das
comunidades ou torna-se ele próprio responsável pelo surgimento de novos tipos de grilhões?
A pergunta é pelo menos tão velha quanto a primeira máquina a vapor, surgida séculos
atrás, no alvorecer daquilo que os historiadores chamam de idade contemporânea. Ela
ressurge agora com nova roupagem, na forma de uma carta aberta emitida pelo instituto
Future of Life que pede pela suspensão das pesquisas com Inteligência Artificial (IA).
A retórica do documento é quase apocalíptica, concluindo que “sistemas avançados de
IA devem ser desenvolvidos somente quanto tivermos a confiança de que seus efeitos serão
positivos e seus riscos, administráveis”. Por hora, dizem os autores, deveríamos interromper
qualquer pesquisa na área pelos próximos seis meses.
A carta do Future of Life já conta com milhares de signatários, incluindo nomes
ilustres do universo da tecnologia como o bilionário Elon Musk, dono da Tesla e da SpaceX, e
Steve Wozniak, cofundador da Apple. É gente que entende do assunto, e vale a pena,
portanto, refletir seriamente sobre seus argumentos.
De início, chamaria atenção para o fato de que a carta deve ser lida mais como um
manifesto, feito para marcar posição, do que um documento propositivo de fato. A razão é
simples: não há na história um único exemplo de campo científico que interrompeu suas
pesquisas pelo simples medo de abrir alguma “caixa de Pandora”, fato que os autores da carta
certamente não ignoram.
Do ponto de vista prático, o documento deve ser inócuo, o que não significa que ele
não levante discussões importantes. Afinal, tão antiga quanto a pergunta sobre os “limites da
tecnologia” é a ideia de que o conhecimento científico deve ser tratado com responsabilidade.
Olhando para o campo da medicina, os grandes avanços trazidos até agora pela IA se
referem à automação de processos, tornando os atendimentos mais rápidos e assertivos, e,
notavelmente, à análise de dados. Ferramentas de IA conseguem, por assim dizer, “pensar”
com autonomia, mas somente a partir de parâmetros estritos e de um conjunto de dados que nós, humanos, fornecemos. A vantagem é que elas são capazes de analisar um volume
gigantesco de informações, o que seria inconcebível para uma equipe humana.
Com isso, a IA permite enxergar padrões até então invisíveis, o que pode orientar
políticas públicas de saúde, dar mais previsibilidade ao orçamento das instituições
hospitalares e assim por diante. Além disso, ela pode aprender, por exemplo, a analisar
exames de imagem, remetendo aos médicos todo aquele que apresentar alguma possível
anormalidade.
Os riscos envolvidos nesse tipo de operação não se referem, portanto, à sofisticação da
IA, ou à sua capacidade de “superar” o pensamento humano, mas sobretudo à segurança dos
dados dos pacientes, ou ao uso ético dessas informações, que não podem ser compartilhadas
com terceiros sem o consentimento expresso de cada indivíduo.
O setor não precisa frear o desenvolvimento da IA, mas garantir que seu uso será bem
regulado, com uma legislação moderna, que permita a inovação na área da saúde sem colocar
em risco a privacidade dos pacientes.
Creio que vale a pena encarar por esse prisma os argumentos lançados pela carta do
Future of Life. Problemas como a disseminação de fake news já ocorrem hoje, não por conta
de uma evolução desenfreada da IA, mas porque não temos ainda mecanismos jurídicos e
regulatórios adequados para lidar com a questão. O mesmo vale para o processo de automação
do trabalho e o risco do desemprego em massa: com ou sem ChatGPT e similares, a
humanidade precisará lidar com esse desafio pelas próximas décadas.
Ademais, o tom catastrofista da carta ignora problemas reais, como o risco de
introduzir vieses racistas ou sexistas nas ferramentas de IA, a depender da qualidade e
diversidade dos bancos de dados utilizados. Mais uma vez, trata-se de um problema que
independe de uma ferramenta digital igualar ou superar a inteligência humana.
A história ensina que é praticamente impossível frear o progresso científico. Mais
produtivo do que combater inovações como a IA seria, desde já, refletir sobre como garantir
que a sociedade fará um uso responsável dessas novas ferramentas.
Médico, presidente do Conselho do Instituto de Radiologia (InRad) e presidente do Conselho de Inovação (InovaHC), ambos do Hospital das Clínicas da Faculdade de Medicina da USP, e presidente do Instituto Coalizão Saúde (ICOS).