Em uma entrevista recentemente veiculada por jornais e portais de notícias no Brasil, Bill Gates afirmou que a inteligência artificial (IA) substituirá os médicos dentro de uma década. Diante de mais uma especulação reducionista sobre um tema tão complexo, voltamos aqui a uma pergunta fundamental: quem vai pagar pelos erros médicos da IA?
Por anos a fio, nem o ex-diretor executivo da Microsoft, tampouco seus pares e asseclas, ousaram fazer declarações assertivas sobre a responsabilidade legal pelos erros e falhas potencialmente envolvidos no uso de algoritmos na assistência à saúde. Da mesma maneira, poucas companhias autorizadas a comercializar ferramentas de IA no setor manifestaram disposição clara em assumir tais compromissos.
Embora os agentes envolvidos concordem minimamente que a transparência e a autonomia dos pacientes devam ser sempre respeitadas, a regulamentação do arcabouço jurídico para o tema ainda está em ampla discussão ao redor do mundo, sem conclusões ou formatos definitivos.
Nesse embate, algumas das empresas de tecnologia defendem que, caso o médico tome uma decisão com base em uma recomendação da IA e algum dano ocorra ao paciente, o profissional e o serviço de saúde sejam primariamente responsabilizados.
Vale destacar a contradição implícita nessa narrativa: enquanto ferramentas de IA são anunciadas comercialmente com acurácia equivalente ou superior a médicos treinados, não faz sentido que a responsabilidade legal por eventuais erros não seja partilhada, mas apenas transferida. Para uma classe de trabalhadores submetida a longas jornadas de trabalho e frequentes relatos de ansiedade e esgotamento, não cabem na equação novos riscos e responsabilidades jurídicas. E essa não parece ser a mesma matemática dos relatórios dos investidores das companhias de IA.
É importante afirmar aqui que o uso de novas tecnologias já tem impactado muito positivamente o cuidado com nossos pacientes, mas deve inexoravelmente buscar o tênue equilíbrio entre inovação e segurança. Sabemos que o cuidado médico opera segundo uma lógica distinta daquela das empresas de tecnologia, cuja filosofia de experimentação acelerada foi bem resumida por Mark Zuckerberg em seu lema “mova-se rápido e quebre coisas”. E “quebrar coisas” pode também significar riscos incrementais ao nosso escopo fundamental: a saúde dos pacientes.
A IA pode sim revelar valiosas correlações e tendências em saúde, mas as perguntas certas dependem do pensamento crítico e da experiência dos profissionais envolvidos, que também interpretarão se as respostas geradas são precisas, relevantes e éticas.
Direcionar bilhões para a IA sem considerar os inevitáveis desafios legais implicados nesse processo não é disrupção, mas apenas um deslocamento do risco para esses profissionais que deveriam ser beneficiados por tais tecnologias.
Caro Bill, concordamos que a IA é nossa grande aliada na era da saúde digital. No entanto, é essencial compreendermos e respeitarmos o valor seminal do componente humano na assistência à saúde. Afinal, um futuro mais saudável e sustentável não pode ser simplesmente programado. Ele precisa ser moldado, todos os dias, por aqueles que escutam, sentem, pensam e cuidam.
TENDÊNCIAS / DEBATES
Os artigos publicados com assinatura não traduzem a opinião do jornal. Sua publicação obedece ao propósito de estimular o debate dos problemas brasileiros e mundiais e de refletir as diversas tendências do pensamento contemporâneo.
Fonte ==> Folha SP