49 - IMPACTO DE LA DOCENCIA EN BIOÉTICA EN LA ACTITUD FRENTE A LA INTELIGENCIA ARTIFICIAL EN NUESTROS FUTUROS PROFESIONALES
1Hospital Universitario Rio Hortega/Universidad de Valladolid, Valladolid, España. 2Universidad de Valladolid, Valladolid, España. 3Hospital Universitario Rio Hortega, Valladolid, España.
Objetivos: La docencia de Bioética aporta la formación humanística que debe acompañar a la formación técnica y tecnológica en Ciencias de la Salud. En las últimas décadas los avances biotecnológicos han sido notables: terapias CAR-t, tecnología CRISPR-Cas9... implantándose rápidamente, sin apenas regulación, con debates éticos no resueltos y escasos conocimientos por parte de la mayoría de profesionales. La novedad es la Inteligencia Artificial (IA) que nos ayudará en la resolución de lagunas del conocimiento manejando megadatos, competirá con muchas especialidades médicas (por ejemplo, facilitando la capacidad diagnóstica con MammoScreen™) pero también plantea desafíos éticos por la combinación de nuevas tecnologías, megadatos y partes interesadas. Hasta sus propios diseñadores teman que se les escape de las manos. Nos preguntamos qué actitud tienen ante la IA, los alumnos de segundo curso de Medicina y de Biomedicina y Terapias Avanzadas que estamos formando para los próximos 30 años y si un seminario de 50 minutos sobre desafíos éticos en IA puede modificarla.
Métodos: Estudio descriptivo-analítico correlacional en dos tiempos: se solicitó a los alumnos que rellenaran de forma voluntaria una encuesta anónima relativa a las implicaciones bioéticas de la IA de respuestas cerradas antes del seminario e inmediatamente después. Se compararon las respuestas iniciales y finales y el cambio de actitud. Estudio fue aprobado por el CEIm de nuestro hospital. Datos analizados con SPSS 25,0 aplicando el test de rangos con signo de Wilcoxon para datos apareados.
Resultados: 65 alumnos respondieron la encuesta previa y 59 la posterior. El 40% se mostró inicialmente de acuerdo con la afirmación “Podemos codificar valores morales en los sistemas de IA” frente al 42,2% en la encuesta posterior (razón Z -1,986; p = 0,47). En “Debemos codificar valores morales en los sistemas de IA” el 58,5% se mostró inicialmente de acuerdo frente al 61% posterior (razón Z -0,480; p = 0,631). Respecto a “Se derivan responsabilidades del posible error de un algoritmo insuficientemente elaborado” el 66% se mostró inicialmente de acuerdo frente al 44,8% posterior (razón Z -5,059; p < 0,001) y el 35,4% de los alumnos se mostraba de acuerdo con “El análisis masivo de datos biomédicos respeta la confidencialidad y el anonimato” frente al 5,2% posteriormente (razón Z -4,951; p < 0,001). Finalmente, el 54,7% estaba en desacuerdo con “La IA reduce la brecha de pobreza, la discriminación de minorías y su uso puede generalizarse a distintos entornos” frente al 83% posterior (razón Z -3,254; p < 0,001).
Conclusiones: La actitud del alumnado ante preguntas clásicas sobre la actividad de la IA, sus consecuencias y sus implicaciones bioéticas tiene relación con su conocimiento de la funcionalidad de la misma y el papel del médico/biomédico y la IA en la atención al paciente y toma de decisiones. Pequeños tiempos de docencia son capaces de cambiar dicha actitud. En el escenario actual de avance desbocado, la formación en bioética en los grados de Ciencias de la Salud es fundamental para el desarrollo de los futuros profesionales y posiblemente para los sanitarios ya formados.
Nuestro agradecimiento a todos los alumnos que acudieron ese día a clase y realizaron la encuesta voluntariamente.