Quantcast
Investigação

Inteligência artificial em medicina veterinária: Implicações éticas e legais

Inteligência artificial em medicina veterinária: Implicações éticas e legais iStock

A inteligência artificial (IA) está a cada vez mais presente em vários setores e tem também o potencial de mudar a forma como a medicina veterinária é praticada, mas há questões éticas e legais a ter em conta, refere o artigo publicado no site da American Veterinary Medical Association (AVMA).

Estas novas tecnologias têm por base a melhoria da análise antecipada e do desempenho do diagnóstico, apoiando a tomada de decisão quando os profissionais analisam imagens médicas.  No entanto, ao contrário da medicina humana, nenhuma triagem e avaliação de ferramentas de IA é necessária para depois ser aplicada na prática da medicina veterinária.

 

De acordo com o artigo, esta questão levanta importantes considerações éticas e legais, particularmente quando se trata de condições de saúde com um mau prognóstico, em que, tais interpretações baseadas em IA podem levar a uma decisão errada. Isto faz com que se torne vital para a profissão desenvolver as melhores práticas para proteger as equipas, os pacientes e os tutores.

Eli Cohen, professor clínico de diagnóstico por imagem da North Carolina State College of Veterinary Medicine, promoveu um webinar, no ano passado, com o tema “Não causar dano: implicações éticas e legais da IA”, onde explorou o potencial da inteligência artificial no aumento da eficiência e da precisão em radiologia, mas também onde reconheceu os seus riscos.

 

Potenciais do uso da IA

O uso de IA na prática de diagnóstico clínico por imagem continuará a crescer, em grande parte porque, a maioria dos dados e relatórios de radiografias, ultrassom, TC, ressonância magnética e medicina nuclear estão em formato digital, de acordo com um artigo da Currents in One Health publicado na JAVMA em maio de 2022.

 

O autor do artigo, Ryan Appleby, avançou que a inteligência artificial pode ser uma grande ajuda na aceleração de tarefas, sendo usada para girar ou posicionar automaticamente radiografias digitais, produzir protocolos de visualização – instruções sobre como organizar imagens para alcançar uma visualização ideal – ou criar modelos de relatório com base nas partes do corpo incluídas no estudo.

Assim, no que toca a interpretar radiografias, não só a IA tem de identificar casos comuns de doenças como tem também de reconhecer casos limite, de forma a garantir que os pacientes são devidamente tratados e ser, por isso, útil no diagnóstico.

 

Neste sentido, Cohen refere que “embora a IA melhore, ela não é perfeita. Precisamos de ser capazes de solucionar os problemas quando ela não funcionar adequadamente”.

 

Desafios da inteligência artificial

Os responsáveis pelo desenvolvimento de dispositivos médicos necessitam de uma aprovação por parte da Food and Drug Administration (FDA) para vender o seu produto nos Estados Unidos da América, o mesmo acontece com os dispositivos médicos habilitados para a inteligência artificial.

No entanto, as empresas que desenvolvem dispositivos médicos para animais não são obrigadas a passar por uma triagem pré-comercialização, ao contrário daquelas que desenvolvem dispositivos para pessoas. O Artificial do American College of Veterinary Radiology já veio expressar a sua preocupação com a falta de supervisão do software usado para interpretar radiografias.

“É lógico que, se a FDA fornecer diretrizes de supervisão para dispositivos médicos usados em pessoas, medidas semelhantes devem entrar em vigor para dispositivos médicos veterinários para ajudar a proteger os nossos animais de companhia”, refere Tod Drost, diretor executivo do American College of Veterinary Radiology. E continua: “o objetivo não é sufocar a inovação, mas sim, ter uma avaliação apropriada relativa ao desenvolvimento dessas novas tecnologias”.

São precisas quantidades massivas de dados para treinar algoritmos de machine learning. Devido à falta de regulamentação para empresas que desenvolvem dispositivos médicos e empresas de IA, não é um requisito que as empresas forneçam informações sobre como os seus funcionários treinaram ou validaram os seus produtos e muitos destes algoritmos estão frequentemente a operar num “caixa preta”, refere o artigo.

De acordo com Cohen, “isto levanta considerações éticas bastante relevantes se estivermos a usar estas tecnologias para fazer diagnósticos e realizar tratamentos”.

E acrescenta “Como a IA não tem consciência, aqueles que estão a desenvolver e a usar estas ferramentas precisam de a ter e não podem dar-se ao luxo de ficar indiferentes, até porque a IA pode ser inteligente, mas não significa que seja ética”.

O investigador adianta ainda que “à medida que adotamos a IA e a trazemos para a medicina veterinária, a melhor prática seria alavancar a experiência humana e a IA juntas, em vez de substituir os humanos”. Assim, o professor clínico sugeriu ter um especialista neste domínio envolvido em todos os estágios da IA — desde o desenvolvimento de produtos, à validação dos mesmos, e os testes, até chegar a uso clínico.

“É importante que os profissionais de veterinária tenham um papel ativo nesta temática para tornar a medicina mais segura, à medida que o uso de inteligência artificial se torna mais comum”, afirmou Cohen.

 

 

 

Este site oferece conteúdo especializado. É profissional de saúde animal?