Bolt42

Participe dos nossos boletins diários e semanais para as últimas atualizações e conteúdo exclusivo sobre a cobertura de IA de liderança no setor. Saiba mais


Os líderes de projetos de IA hoje podem sentir a pressão para entregar resultados rápidos a fim de provar de forma decisiva o retorno sobre o investimento nessa tecnologia. No entanto, formas impactantes e transformadoras de adoção de IA exigem uma abordagem estratégica, medida e intencional.

Poucos entendem esses requisitos melhor do que a Dra. Ashley Beecy, Diretora Médica de Operações de Inteligência Artificial no Hospital New York-Presbyterian (NYP), um dos maiores hospitais do mundo e uma das instituições de pesquisa médica mais prestigiadas. Com uma formação que abrange engenharia de circuitos na IBM, gestão de riscos na Citi e prática da cardiologia, a Dra. Beecy traz uma combinação única de conhecimento técnico e experiência clínica para o seu papel. Ela supervisiona a governança, desenvolvimento, avaliação e implementação de modelos de IA em sistemas clínicos em todo o NYP, garantindo que sejam integrados de forma responsável e eficaz para melhorar o atendimento ao paciente.

Para as empresas que estão pensando em adotar IA em 2025, Beecy destacou três formas nas quais a estratégia de adoção de IA deve ser medida e intencional:

  • Boa governança para desenvolvimento responsável de IA
  • Uma abordagem dirigida por necessidades fundamentadas em feedback
  • Transparência como chave para a confiança

Boa governança para desenvolvimento responsável de IA

Beecy afirma que a governança eficaz é a espinha dorsal de qualquer iniciativa de IA bem-sucedida, garantindo que os modelos não sejam apenas tecnicamente sólidos, mas também justos, eficazes e seguros.

Os líderes de IA precisam pensar sobre o desempenho geral da solução, incluindo como isso impacta o negócio, os usuários e até mesmo a sociedade. Para garantir que uma organização esteja medindo os resultados corretos, deve começar definindo claramente as métricas de sucesso desde o início. Essas métricas devem estar diretamente ligadas aos objetivos empresariais ou resultados clínicos, mas também considerar consequências não intencionais, como se o modelo está reforçando preconceitos ou causando ineficiências operacionais.

Baseado em sua experiência, a Dra. Beecy recomenda adotar um robusto framework de governança como o modelo justo, apropriado, válido, eficaz e seguro (FAVES) fornecido pelo HHS HTI-1. Um framework adequado deve incluir 1) mecanismos para detecção de preconceitos 2) verificações de equidade e 3) políticas de governança que exijam explicabilidade para as decisões de IA. Para implementar tal framework, uma organização também deve ter um robusto pipeline de MLOps para monitorar a deriva do modelo à medida que os modelos são atualizados com novos dados.

Construindo a equipe e a cultura certas

Um dos primeiros e mais críticos passos é montar uma equipe diversificada que reúna especialistas técnicos, especialistas em domínio e usuários finais. “Esses grupos devem colaborar desde o início, iterando juntos para refinar o escopo do projeto”, ela diz. A comunicação regular ajuda a fechar lacunas de entendimento e mantém todos alinhados com objetivos compartilhados. Por exemplo, para iniciar um projeto visando melhor prever e prevenir a insuficiência cardíaca, uma das principais causas de morte nos Estados Unidos, a Dra. Beecy montou uma equipe de 20 especialistas clínicos em insuficiência cardíaca e 10 professores técnicos. Essa equipe trabalhou junta por três meses para definir áreas de foco e garantir alinhamento entre as necessidades reais e as capacidades tecnológicas.

Beecy também enfatiza que o papel da liderança na definição da direção de um projeto é crucial:

Os líderes de IA precisam promover uma cultura de IA ética. Isso significa garantir que as equipes que constroem e implementam modelos sejam educadas sobre os riscos potenciais, preconceitos e preocupações éticas da IA. Não se trata apenas de excelência técnica, mas sim de usar a IA de uma maneira que beneficie as pessoas e esteja alinhada com os valores organizacionais. Ao focar nas métricas corretas e garantir uma governança forte, as organizações podem construir soluções de IA que sejam eficazes e eticamente sólidas.

Uma abordagem orientada por necessidades com feedback contínuo

Beecy defende o início de projetos de IA identificando problemas de alto impacto que estejam alinhados com os principais objetivos empresariais ou clínicos. O foco deve estar em resolver problemas reais, não apenas em mostrar tecnologia. “O importante é trazer as partes interessadas para a conversa desde o início, para que você esteja resolvendo questões reais e tangíveis com a ajuda da IA, e não apenas correndo atrás de tendências”, ela aconselha. “Certifique-se de que os dados, tecnologia e recursos corretos estão disponíveis para apoiar o projeto. Uma vez que você tenha os resultados, é mais fácil escalar o que funciona.”

A flexibilidade para ajustar o curso também é essencial. “Construa um loop de feedback em seu processo”, aconselha Beecy, “isso garante que suas iniciativas de IA não sejam estáticas e continuem a evoluir, proporcionando valor ao longo do tempo.”

Transparência é a chave para a confiança

Para que as ferramentas de IA sejam utilizadas de forma eficaz, elas devem ser confiáveis. “Os usuários precisam saber não apenas como a IA funciona, mas por que ela toma certas decisões”, enfatiza a Dra. Beecy.

Ao desenvolver uma ferramenta de IA para prever o risco de quedas em pacientes hospitalares (que afeta 1 milhão de pacientes por ano em hospitais dos EUA), sua equipe descobriu que era crucial comunicar alguns dos aspectos técnicos do algoritmo ao pessoal de enfermagem.

Os seguintes passos ajudaram a construir confiança e incentivar a adoção da ferramenta de previsão de risco de quedas:

  • Desenvolvendo um Módulo Educacional: A equipe criou um módulo educacional abrangente para acompanhar a implementação da ferramenta.
  • Tornando os Preditores Transparentes: Ao entender os preditores mais pesados usados pelo algoritmo que contribui para o risco de queda de um paciente, os enfermeiros puderam apreciar e confiar melhor nas recomendações da ferramenta de IA.
  • Compartilhamento de Feedback e Resultados: Ao compartilhar como a integração da ferramenta impactou os cuidados ao paciente—como reduções nas taxas de queda—os enfermeiros viram os benefícios tangíveis de seus esforços e a eficácia da ferramenta de IA.

Beecy enfatiza a inclusão na educação em IA. “Garantir que o design e a comunicação sejam acessíveis para todos, mesmo aqueles que não se sentem tão confortáveis com a tecnologia. Se as organizações conseguirem fazer isso, é mais provável que vejamos uma adoção mais ampla.”

Considerações éticas na tomada de decisões em IA

No cerne da abordagem da Dra. Beecy está a crença de que a IA deve aumentar as capacidades humanas, não substituí-las. “Na saúde, o toque humano é insubstituível”, ela afirma. O objetivo é melhorar a interação médico-paciente, aprimorar os resultados para os pacientes e reduzir a carga administrativa sobre os trabalhadores da saúde. “A IA pode ajudar a agilizar tarefas repetitivas, melhorar a tomada de decisões e reduzir erros”, ela observa, mas a eficiência não deve vir à custa do elemento humano, especialmente em decisões que têm um impacto significativo na vida dos usuários. A IA deve fornecer dados e insights, mas a decisão final deve envolver tomadores de decisão humanos, segundo a Dra. Beecy. “Essas decisões exigem um nível de julgamento ético e humano.”

Ela também destaca a importância de investir tempo suficiente no desenvolvimento para abordar a equidade algorítmica. A base de simplesmente ignorar raça, gênero ou outros fatores sensíveis não garante resultados justos. Por exemplo, ao desenvolver um modelo preditivo para a depressão pós-parto – uma condição que afeta uma em cada sete mães, sua equipe descobriu que incluir atributos demográficos sensíveis como raça levou a resultados mais justos.

Através da avaliação de múltiplos modelos, sua equipe aprendeu que simplesmente excluir variáveis sensíveis, o que às vezes é referido como “justiça através da ignorância”, pode não ser suficiente para alcançar resultados equitativos. Mesmo que atributos sensíveis não estejam explicitamente incluídos, outras variáveis podem agir como proxies, levando a disparidades que são ocultas, mas ainda muito reais. Em alguns casos, ao não incluir variáveis sensíveis, você pode descobrir que um modelo deixa de levar em consideração algumas das desigualdades estruturais e sociais que existem na saúde (ou em outros lugares na sociedade). De qualquer forma, é fundamental ser transparente sobre como os dados estão sendo usados e colocar salvaguardas para evitar reforçar estereótipos nocivos ou perpetuar preconceitos sistêmicos.

Integrar IA deve vir acompanhado de um compromisso com a justiça e a equidade. Isso significa auditar regularmente os modelos, envolver partes interessadas diversas no processo e garantir que as decisões feitas por esses modelos estejam melhorando os resultados para todos, não apenas para um subconjunto da população. Sendo cuidadosos e intencionais na avaliação de preconceitos, as empresas podem criar sistemas de IA que sejam verdadeiramente mais justos e equitativos.

Devagar e sempre ganha a corrida

Em uma era em que a pressão para adotar a IA rapidamente é imensa, o conselho da Dra. Beecy serve como um lembrete de que devagar e sempre ganha a corrida. Para 2025 e além, uma abordagem estratégica, responsável e intencional à adoção de IA empresarial é crítica para o sucesso a longo prazo em projetos significativos. Isso envolve uma consideração holística e proativa da equidade, segurança, eficácia e transparência de um projeto, assim como sua lucratividade imediata. As consequências do design do sistema de IA e as decisões que a IA é autorizada a tomar devem ser consideradas a partir de perspectivas que incluem os funcionários e clientes de uma organização, assim como a sociedade em geral.





    17 + 18 =




    Bolt42