se ha leído el artículo
array:24 [ "pii" => "S0014256524000262" "issn" => "00142565" "doi" => "10.1016/j.rce.2024.01.007" "estado" => "S300" "fechaPublicacion" => "2024-03-01" "aid" => "2172" "copyright" => "Elsevier España, S.L.U. and Sociedad Española de Medicina Interna (SEMI)" "copyrightAnyo" => "2024" "documento" => "article" "crossmark" => 1 "subdocumento" => "rev" "cita" => "Rev Clin Esp. 2024;224:178-86" "abierto" => array:3 [ "ES" => false "ES2" => false "LATM" => false ] "gratuito" => false "lecturas" => array:1 [ "total" => 0 ] "Traduccion" => array:1 [ "en" => array:19 [ "pii" => "S2254887424000213" "issn" => "22548874" "doi" => "10.1016/j.rceng.2024.02.003" "estado" => "S300" "fechaPublicacion" => "2024-03-01" "aid" => "2172" "copyright" => "Elsevier España, S.L.U. and Sociedad Española de Medicina Interna (SEMI)" "documento" => "article" "crossmark" => 1 "subdocumento" => "rev" "cita" => "Rev Clin Esp. 2024;224:178-86" "abierto" => array:3 [ "ES" => false "ES2" => false "LATM" => false ] "gratuito" => false "lecturas" => array:1 [ "total" => 0 ] "en" => array:12 [ "idiomaDefecto" => true "cabecera" => "<span class="elsevierStyleTextfn">Review</span>" "titulo" => "Ethics and artificial intelligence" "tienePdf" => "en" "tieneTextoCompleto" => "en" "tieneResumen" => array:2 [ 0 => "en" 1 => "es" ] "paginas" => array:1 [ 0 => array:2 [ "paginaInicial" => "178" "paginaFinal" => "186" ] ] "titulosAlternativos" => array:1 [ "es" => array:1 [ "titulo" => "Ética e inteligencia artificial" ] ] "contieneResumen" => array:2 [ "en" => true "es" => true ] "contieneTextoCompleto" => array:1 [ "en" => true ] "contienePdf" => array:1 [ "en" => true ] "autores" => array:1 [ 0 => array:2 [ "autoresLista" => "L. Inglada Galiana, L. Corral Gudino, P. Miramontes González" "autores" => array:3 [ 0 => array:2 [ "nombre" => "L." "apellidos" => "Inglada Galiana" ] 1 => array:2 [ "nombre" => "L." "apellidos" => "Corral Gudino" ] 2 => array:2 [ "nombre" => "P." "apellidos" => "Miramontes González" ] ] ] ] ] "idiomaDefecto" => "en" "Traduccion" => array:1 [ "es" => array:9 [ "pii" => "S0014256524000262" "doi" => "10.1016/j.rce.2024.01.007" "estado" => "S300" "subdocumento" => "" "abierto" => array:3 [ "ES" => false "ES2" => false "LATM" => false ] "gratuito" => false "lecturas" => array:1 [ "total" => 0 ] "idiomaDefecto" => "es" "EPUB" => "https://multimedia.elsevier.es/PublicationsMultimediaV1/item/epub/S0014256524000262?idApp=WRCEE" ] ] "EPUB" => "https://multimedia.elsevier.es/PublicationsMultimediaV1/item/epub/S2254887424000213?idApp=WRCEE" "url" => "/22548874/0000022400000003/v1_202403090824/S2254887424000213/v1_202403090824/en/main.assets" ] ] "itemSiguiente" => array:19 [ "pii" => "S0014256524000201" "issn" => "00142565" "doi" => "10.1016/j.rce.2023.11.012" "estado" => "S300" "fechaPublicacion" => "2024-03-01" "aid" => "2166" "copyright" => "Elsevier España, S.L.U. and Sociedad Española de Medicina Interna (SEMI)" "documento" => "simple-article" "crossmark" => 1 "subdocumento" => "edi" "cita" => "Rev Clin Esp. 2024;224:187-8" "abierto" => array:3 [ "ES" => false "ES2" => false "LATM" => false ] "gratuito" => false "lecturas" => array:1 [ "total" => 0 ] "es" => array:10 [ "idiomaDefecto" => true "cabecera" => "<span class="elsevierStyleTextfn">Editorial</span>" "titulo" => "La exploración física con ultrasonidos, luces y sombras de un avance multidisciplinar imparable" "tienePdf" => "es" "tieneTextoCompleto" => "es" "paginas" => array:1 [ 0 => array:2 [ "paginaInicial" => "187" "paginaFinal" => "188" ] ] "titulosAlternativos" => array:1 [ "en" => array:1 [ "titulo" => "Physical exam with ultrasound, lights and shadows of an unstoppable multidisciplinary advance" ] ] "contieneTextoCompleto" => array:1 [ "es" => true ] "contienePdf" => array:1 [ "es" => true ] "autores" => array:1 [ 0 => array:2 [ "autoresLista" => "Y. Tung-Chen, M. Martí-de Gracia" "autores" => array:2 [ 0 => array:2 [ "nombre" => "Y." "apellidos" => "Tung-Chen" ] 1 => array:2 [ "nombre" => "M." "apellidos" => "Martí-de Gracia" ] ] ] ] ] "idiomaDefecto" => "es" "Traduccion" => array:1 [ "en" => array:9 [ "pii" => "S2254887424000249" "doi" => "10.1016/j.rceng.2024.02.006" "estado" => "S300" "subdocumento" => "" "abierto" => array:3 [ "ES" => false "ES2" => false "LATM" => false ] "gratuito" => false "lecturas" => array:1 [ "total" => 0 ] "idiomaDefecto" => "en" "EPUB" => "https://multimedia.elsevier.es/PublicationsMultimediaV1/item/epub/S2254887424000249?idApp=WRCEE" ] ] "EPUB" => "https://multimedia.elsevier.es/PublicationsMultimediaV1/item/epub/S0014256524000201?idApp=WRCEE" "url" => "/00142565/0000022400000003/v1_202403090624/S0014256524000201/v1_202403090624/es/main.assets" ] "itemAnterior" => array:19 [ "pii" => "S0014256524000249" "issn" => "00142565" "doi" => "10.1016/j.rce.2024.01.005" "estado" => "S300" "fechaPublicacion" => "2024-03-01" "aid" => "2170" "copyright" => "Elsevier España, S.L.U. and Sociedad Española de Medicina Interna (SEMI)" "documento" => "article" "crossmark" => 1 "subdocumento" => "rev" "cita" => "Rev Clin Esp. 2024;224:167-77" "abierto" => array:3 [ "ES" => false "ES2" => false "LATM" => false ] "gratuito" => false "lecturas" => array:1 [ "total" => 0 ] "es" => array:13 [ "idiomaDefecto" => true "cabecera" => "<span class="elsevierStyleTextfn">REVISIÓN</span>" "titulo" => "Revisión sistemática de los ensayos clínicos sobre terapia antitrombótica con inhibidores del factor XI" "tienePdf" => "es" "tieneTextoCompleto" => "es" "tieneResumen" => array:2 [ 0 => "es" 1 => "en" ] "paginas" => array:1 [ 0 => array:2 [ "paginaInicial" => "167" "paginaFinal" => "177" ] ] "titulosAlternativos" => array:1 [ "en" => array:1 [ "titulo" => "Systematic review of clinical trials on the antithrombotic therapy with factor XI inhibitors" ] ] "contieneResumen" => array:2 [ "es" => true "en" => true ] "contieneTextoCompleto" => array:1 [ "es" => true ] "contienePdf" => array:1 [ "es" => true ] "resumenGrafico" => array:2 [ "original" => 0 "multimedia" => array:7 [ "identificador" => "fig1" "etiqueta" => "Figura 1" "tipo" => "MULTIMEDIAFIGURA" "mostrarFloat" => true "mostrarDisplay" => false "figura" => array:1 [ 0 => array:4 [ "imagen" => "gr1.jpeg" "Alto" => 2212 "Ancho" => 2341 "Tamanyo" => 308690 ] ] "descripcion" => array:1 [ "es" => "<p id="spar0120" class="elsevierStyleSimplePara elsevierViewall">Diagrama de flujo del estudio de selección.</p>" ] ] ] "autores" => array:1 [ 0 => array:2 [ "autoresLista" => "A. Franco-Moreno, N. Muñoz-Rivas, J. Torres-Macho, A. Bustamante-Fermosel, C.L. Ancos-Aracil, E. Madroñal-Cerezo" "autores" => array:6 [ 0 => array:2 [ "nombre" => "A." "apellidos" => "Franco-Moreno" ] 1 => array:2 [ "nombre" => "N." "apellidos" => "Muñoz-Rivas" ] 2 => array:2 [ "nombre" => "J." "apellidos" => "Torres-Macho" ] 3 => array:2 [ "nombre" => "A." "apellidos" => "Bustamante-Fermosel" ] 4 => array:2 [ "nombre" => "C.L." "apellidos" => "Ancos-Aracil" ] 5 => array:2 [ "nombre" => "E." "apellidos" => "Madroñal-Cerezo" ] ] ] ] ] "idiomaDefecto" => "es" "Traduccion" => array:1 [ "en" => array:9 [ "pii" => "S2254887424000171" "doi" => "10.1016/j.rceng.2024.01.006" "estado" => "S300" "subdocumento" => "" "abierto" => array:3 [ "ES" => false "ES2" => false "LATM" => false ] "gratuito" => false "lecturas" => array:1 [ "total" => 0 ] "idiomaDefecto" => "en" "EPUB" => "https://multimedia.elsevier.es/PublicationsMultimediaV1/item/epub/S2254887424000171?idApp=WRCEE" ] ] "EPUB" => "https://multimedia.elsevier.es/PublicationsMultimediaV1/item/epub/S0014256524000249?idApp=WRCEE" "url" => "/00142565/0000022400000003/v1_202403090624/S0014256524000249/v1_202403090624/es/main.assets" ] "es" => array:17 [ "idiomaDefecto" => true "cabecera" => "<span class="elsevierStyleTextfn">Revisión</span>" "titulo" => "Ética e inteligencia artificial" "tieneTextoCompleto" => true "paginas" => array:1 [ 0 => array:2 [ "paginaInicial" => "178" "paginaFinal" => "186" ] ] "autores" => array:1 [ 0 => array:4 [ "autoresLista" => "L. Inglada Galiana, L. Corral Gudino, P. Miramontes González" "autores" => array:3 [ 0 => array:4 [ "nombre" => "L." "apellidos" => "Inglada Galiana" "email" => array:1 [ 0 => "ingladagaliana0@gmail.com" ] "referencia" => array:2 [ 0 => array:2 [ "etiqueta" => "<span class="elsevierStyleSup">a</span>" "identificador" => "aff0005" ] 1 => array:2 [ "etiqueta" => "<span class="elsevierStyleSup">*</span>" "identificador" => "cor0005" ] ] ] 1 => array:3 [ "nombre" => "L." "apellidos" => "Corral Gudino" "referencia" => array:2 [ 0 => array:2 [ "etiqueta" => "<span class="elsevierStyleSup">a</span>" "identificador" => "aff0005" ] 1 => array:2 [ "etiqueta" => "<span class="elsevierStyleSup">b</span>" "identificador" => "aff0010" ] ] ] 2 => array:3 [ "nombre" => "P." "apellidos" => "Miramontes González" "referencia" => array:2 [ 0 => array:2 [ "etiqueta" => "<span class="elsevierStyleSup">a</span>" "identificador" => "aff0005" ] 1 => array:2 [ "etiqueta" => "<span class="elsevierStyleSup">b</span>" "identificador" => "aff0010" ] ] ] ] "afiliaciones" => array:2 [ 0 => array:3 [ "entidad" => "Servicio Medicina Interna, Hospital Universitario Río Hortega, Valladolid, España" "etiqueta" => "a" "identificador" => "aff0005" ] 1 => array:3 [ "entidad" => "Departamento de Medicina, Facultad de Medicina, Universidad de Valladolid, Valladolid, España" "etiqueta" => "b" "identificador" => "aff0010" ] ] "correspondencia" => array:1 [ 0 => array:3 [ "identificador" => "cor0005" "etiqueta" => "⁎" "correspondencia" => "Autor para correspondencia." ] ] ] ] "titulosAlternativos" => array:1 [ "en" => array:1 [ "titulo" => "Ethics and artificial intelligence" ] ] "textoCompleto" => "<span class="elsevierStyleSections"><span id="sec0005" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0025">Introducción</span><p id="par0005" class="elsevierStylePara elsevierViewall">La inteligencia artificial (IA) no es solo una faceta de la tecnología avanzada, sino también un catalizador de profundas transformaciones éticas y morales. La presencia cada vez más influyente de la IA en diversas esferas de la vida humana nos plantea preguntas críticas sobre la naturaleza y la aplicación de nuestras normas éticas.</p><p id="par0010" class="elsevierStylePara elsevierViewall">La ética, tradicionalmente enmarcada en términos humanos, enfrenta desafíos sin precedentes y oportunidades en la era de la IA. A medida que estas tecnologías se integran más en nuestras vidas, se convierten en agentes activos que pueden influir e incluso tomar decisiones críticas que antes eran dominio exclusivo de los seres humanos. Esta evolución nos obliga a reconsiderar y redefinir lo que entendemos por responsabilidad, privacidad, autonomía y justicia en un contexto cada vez más digitalizado y automatizado. La ética y la IA están profundamente interconectadas en un sentido bidireccional, y las capacidades y aplicaciones de la IA generan nuevas cuestiones éticas. Asimismo, consideramos que la IA tiene el potencial de transformar significativamente todos los aspectos de la sociedad y la vida humana, desde la salud hasta la seguridad y la economía, lo que requiere un análisis ético cuidadoso para guiar su desarrollo. Adoptar un enfoque ético proactivo en el desarrollo de la IA es crucial para asegurar que esta tecnología avance de manera que beneficie a la sociedad en su conjunto y se utilice de manera responsable y ética, respetando los derechos humanos y fomentando una convivencia armoniosa entre seres humanos y máquinas inteligentes.</p></span><span id="sec0010" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0030">Preguntas clave</span><p id="par0015" class="elsevierStylePara elsevierViewall">Hay 2 preguntas que debemos hacernos para avanzar en la reformulación de normativas éticas y morales: ¿de qué manera la IA está remodelando nuestras percepciones y aplicaciones de la ética y la moralidad? Y, ¿están nuestras teorías éticas actuales equipadas para abordar los desafíos planteados por la IA?<a class="elsevierStyleCrossRefs" href="#bib0355"><span class="elsevierStyleSup">1–5</span></a>. A continuación, hablamos sobre estas disyuntivas y la evolución de la IA hasta hoy.</p></span><span id="sec0015" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0035">Evolución de la inteligencia artificial</span><span id="sec0020" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0040">Historia y desarrollo de la IA</span><p id="par0020" class="elsevierStylePara elsevierViewall">Para ponernos en contexto, debemos hablar sobre la historia de la IA. Es una narrativa fascinante de aspiraciones humanas, innovaciones tecnológicas y descubrimientos científicos. Los orígenes teóricos hacen referencia a las primeras conceptualizaciones de máquinas inteligentes en la literatura y la ciencia, incluyendo a pioneros como Alan Turing con su famoso test Turing<a class="elsevierStyleCrossRef" href="#bib0380"><span class="elsevierStyleSup">6</span></a>. En los años 50 y 60 comienzan los primeros desarrollos con la exploración de las primeras realizaciones prácticas de IA, como los programas de ajedrez y los primeros intentos de procesamiento del lenguaje natural. La era de oro e ‘invierno de la IA’ ocurren en la década de los 70 y 80, cuando el optimismo inicial da paso a una disminución en el interés y la financiación debido a las limitaciones tecnológicas de la época. Desde finales de 1990, los avances en algoritmos de aprendizaje automático y una mayor disponibilidad de datos y poder computacional llevaron a un renacimiento de la IA, un resurgimiento con aprendizaje automático. En la era actual, contamos con IA avanzada y con los desarrollos más recientes como el aprendizaje profundo, redes neuronales, y sistemas de IA como GPT-4 <a class="elsevierStyleCrossRefs" href="#bib0385"><span class="elsevierStyleSup">7–11</span></a>.</p></span><span id="sec0025" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0045">Impacto en diversos sectores</span><p id="par0025" class="elsevierStylePara elsevierViewall">La IA moderna está transformando múltiples sectores, redefiniendo procesos y creando nuevas posibilidades. La IA está teniendo un impacto significativo en el ámbito de la seguridad, tanto en la seguridad nacional como en la ciberseguridad. Este impacto abarca desde la mejora de las capacidades de vigilancia y reconocimiento hasta la defensa contra amenazas cibernéticas, ofreciendo capacidades mejoradas para proteger a las naciones y a los individuos de una variedad de amenazas. El uso de la IA en este campo debe ser cuidadosamente gestionado para garantizar que se respeten la ética y los derechos humanos, y para evitar la creación de nuevas vulnerabilidades.</p><p id="par0030" class="elsevierStylePara elsevierViewall">Además, la IA está redefiniendo el sector financiero ofreciendo oportunidades para mejorar la eficiencia, la toma de decisiones y la personalización de los servicios. Sin embargo, también introduce complejidades en términos de gestión de riesgos y privacidad de datos. Para capitalizar plenamente los beneficios de la IA en finanzas es crucial abordar estos desafíos a través de regulaciones adecuadas, transparencia y una comprensión profunda de las capacidades y limitaciones de la tecnología. La colaboración entre instituciones financieras, reguladores y expertos en tecnología será clave para forjar un futuro financiero que sea innovador, seguro y ético.</p><p id="par0035" class="elsevierStylePara elsevierViewall">Asimismo, en cuanto a un análisis predictivo, la IA es capaz de predecir riesgos potenciales analizando tendencias del mercado y comportamientos pasados. Esto es particularmente útil en la identificación temprana de riesgos de crédito, mercado y operacionales. Así, los algoritmos de IA pueden detectar actividades sospechosas que podrían indicar fraude, lavado de dinero o incumplimiento de normativas financieras, mejorando así la seguridad y el cumplimiento normativo. Las startup de tecnología financiera (FinTech) están utilizando IA para innovar en áreas como pagos, préstamos y seguros, desafiando a las instituciones financieras tradicionales. Por último, el uso de datos personales y financieros por parte de la IA plantea preocupaciones significativas en términos de privacidad y seguridad de los datos<a class="elsevierStyleCrossRefs" href="#bib0410"><span class="elsevierStyleSup">12–20</span></a>.</p></span></span><span id="sec0030" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0050">Principios básicos de la ética</span><p id="par0040" class="elsevierStylePara elsevierViewall">¿Cuál es el grado de dependencia de las personas en asistentes virtuales o sistemas de recomendación? Es crucial que se respete la capacidad y el derecho de los pacientes a tomar decisiones informadas y voluntarias sobre su atención médica. El impacto en la toma de decisiones humanas se tiene que analizar examinando cómo la IA influye o dicta las decisiones humanas en diferentes contextos, desde la vida cotidiana hasta situaciones críticas. Así, ¿cómo podría esto limitar o alterar el proceso de toma de decisiones autónoma? También se debe analizar la autonomía de las máquinas examinando el grado en que las máquinas dotadas de IA tienen «autonomía» y los retos éticos que esto plantea. ¿Hasta qué punto deberían las máquinas tomar decisiones independientes, especialmente en contextos críticos como la conducción autónoma o la asistencia médica?</p><p id="par0045" class="elsevierStylePara elsevierViewall">Es importante que exista un compromiso para actuar en el mejor interés del paciente, maximizando los beneficios y minimizando los daños<span class="elsevierStyleItalic">,</span> además de la obligación de no causar daño, esencial en el juramento hipocrático de «primero, no hacer daño». También se debe respetar la equidad en la distribución de recursos médicos y en el tratamiento de los pacientes, asegurando que se trate a todos de manera justa y equitativa.</p><p id="par0050" class="elsevierStylePara elsevierViewall">Corresponde discutir también los desafíos en la asignación de responsabilidad entre desarrolladores, usuarios y la propia IA. Este análisis podría incluir la discusión sobre las leyes y regulaciones existentes y cómo podrían necesitar adaptarse para abordar estas cuestiones. Es obligado abordar la cuestión de quién es responsable cuando una IA comete un error o causa daño, explorando escenarios como accidentes de vehículos autónomos o errores en diagnósticos médicos realizados por IA.</p><p id="par0055" class="elsevierStylePara elsevierViewall">Por último, se debe reflexionar sobre cómo la IA, especialmente a través de la recolección y análisis de grandes cantidades de datos personales, afecta la privacidad individual. Algunos ejemplos incluyen la vigilancia mediante IA y el uso de datos personales para publicidad dirigida. Además, corresponde considerar los desafíos y efectos de la IA en la privacidad a un nivel colectivo o social, como el potencial para la creación de perfiles sociales extensos y el seguimiento de grupos o comunidades.</p></span><span id="sec0035" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0055">La «explicabilidad»</span><p id="par0060" class="elsevierStylePara elsevierViewall">Este concepto es crucial y está convirtiéndose rápidamente en un principio esencial en el desarrollo y despliegue de IA. La explicabilidad se refiere a la capacidad de un sistema de IA para explicar sus decisiones, procesos y acciones de una manera que sea comprensible para los humanos. Esta cierra la brecha entre las capacidades tecnológicas avanzadas y las operaciones centradas en el ser humano, asegurando que los sistemas de IA no solo sean potentes y eficientes, sino que también se alineen con los estándares éticos, los requisitos regulatorios y las expectativas de la sociedad. A medida que la IA continúe evolucionando, la explicabilidad desempeñará un papel crucial en fomentar la confianza, la responsabilidad y la transparencia en los sistemas de IA<a class="elsevierStyleCrossRefs" href="#bib0455"><span class="elsevierStyleSup">21–30</span></a>.</p></span><span id="sec0040" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0060">Confianza y transparencia</span><p id="par0065" class="elsevierStylePara elsevierViewall">Para que los usuarios confíen e interactúen efectivamente con los sistemas de IA necesitan entender cómo estos sistemas toman decisiones. Esto es especialmente vital en áreas de alto riesgo como la salud, las finanzas y los sistemas legales. La explicabilidad asegura transparencia en las operaciones de IA, permitiendo a los usuarios ver qué datos utiliza la IA y cómo procesa esos datos para llegar a una decisión. Cuando los sistemas de IA pueden explicar sus decisiones, se facilita determinar la responsabilidad por estas decisiones, particularmente importante cuando una decisión conduce a consecuencias negativas.</p><p id="par0070" class="elsevierStylePara elsevierViewall">Por otro lado, la IA explicable permite una mejor supervisión ética, ya que las razones detrás de las decisiones pueden ser examinadas en términos de equidad, sesgo y alineación con los valores sociales. Los usuarios pueden interactuar de forma más efectiva con los sistemas de IA si entienden la justificación detrás de los resultados, y este entendimiento puede llevar a una mejor integración de la IA en tareas diarias. Asimismo, la explicabilidad permite a los usuarios proporcionar retroalimentación más precisa sobre las decisiones de la IA, facilitando la mejora continua del sistema de IA.</p><p id="par0075" class="elsevierStylePara elsevierViewall">Cada vez más, las regulaciones en torno a la IA exigen transparencia y responsabilidad. La explicabilidad puede ayudar a cumplir con estos requisitos y estándares legales. Además, a medida que se vayan desarrollando estándares internacionales para la IA, la explicabilidad probablemente llegará a ser un componente clave, asegurando que los sistemas de IA puedan ser utilizados y confiados globalmente<a class="elsevierStyleCrossRefs" href="#bib0505"><span class="elsevierStyleSup">31–35</span></a>.</p></span><span id="sec0045" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0065">Facilitación de una IA confiable</span><p id="par0080" class="elsevierStylePara elsevierViewall">La explicabilidad es una piedra angular en el desarrollo ético de IA, ya que asegura que los sistemas de IA se alineen con valores humanos y principios éticos. Debemos alejarnos de sistemas de IA opacos a otros donde el proceso de toma de decisiones sea claro y comprensible. Algunos modelos de IA, particularmente los sistemas de aprendizaje profundo, son inherentemente complejos y no fácilmente interpretables. A veces, los modelos de IA más precisos son los menos explicables, y viceversa. Debe haber un equilibrio entre rendimiento y explicabilidad. En cuanto al desarrollo de estándares universales, no existe un enfoque único para la explicabilidad, y lo que es suficiente en un contexto puede no serlo en otro<a class="elsevierStyleCrossRefs" href="#bib0530"><span class="elsevierStyleSup">36–38</span></a>.</p></span><span id="sec0050" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0070">Diferentes teorías éticas en relación con la inteligencia artificial</span><p id="par0085" class="elsevierStylePara elsevierViewall">Por un lado, la teoría ética del utilitarismo se centra en maximizar la felicidad o el bienestar general. En el contexto de la IA, un enfoque utilitarista evaluaría las acciones y decisiones de la IA según su capacidad para maximizar el bienestar colectivo. En cuanto a su aplicación en IA, el diseño de sistemas de IA podría orientarse hacia la maximización del bienestar general, pero surge el desafío de definir y medir dicho «bienestar» y de equilibrar los intereses de diferentes grupos.</p><p id="par0090" class="elsevierStylePara elsevierViewall">Por otro lado, desde la perspectiva de la deontología<span class="elsevierStyleItalic">,</span> basada en el cumplimiento de normas y deberes éticos, las acciones son éticamente correctas si se adhieren a un conjunto de reglas establecidas. En cuanto a su aplicación en IA, implicaría programar IA para que siguiese reglas éticas predefinidas. Sin embargo, la rigidez de la deontología puede no ser adecuada para todas las situaciones complejas que la IA podría enfrentar. Asimismo, la ética de la virtud se centra en las características y virtudes morales del agente moral, más que en reglas o consecuencias. En cuanto a su aplicación en IA, se traduciría en desarrollar IA que exhibiese o fomentase cualidades como la empatía o la justicia. No obstante, programar estas «virtudes» en una IA es un desafío significativo.</p><p id="par0095" class="elsevierStylePara elsevierViewall">También existe la ética del cuidado, que enfatiza la importancia de las relaciones y el cuidado mutuo, poniendo en primer plano la interconexión y la dependencia. En cuanto a su aplicación en IA, se podría buscar desarrollar sistemas de IA que priorizasen y fomentasen relaciones de cuidado y soporte, especialmente en áreas como la salud o la educación. Por otro lado, el pragmatismo se centra en las consecuencias prácticas y en la adaptabilidad de las normas éticas en diferentes contextos. En cuanto a su aplicación en IA, sugeriríamos desarrollar IA capaz de adaptarse éticamente a diferentes situaciones, lo cual plantea desafíos en términos de programación y toma de decisiones autónoma.</p><p id="par0100" class="elsevierStylePara elsevierViewall">Basada en principios de equidad, justicia y derechos, la teoría de la justicia enfatiza la igualdad y la distribución equitativa de recursos y oportunidades. En cuanto a su aplicación en IA, implicaría asegurar que los sistemas de IA operasen de manera justa y equitativa, sin sesgos discriminatorios, y que su desarrollo y uso no aumentasen la desigualdad. Por último, la ética relacional considera que las decisiones éticas deben basarse en el contexto de las relaciones y la comunidad. En cuanto a su aplicación en IA, se enfocaría en cómo la IA afecta las relaciones humanas y la dinámica social, buscando minimizar los impactos negativos y fomentar beneficios colectivos.</p><p id="par0105" class="elsevierStylePara elsevierViewall">Cada una de estas teorías ofrece perspectivas únicas sobre cómo debería abordarse la ética en el desarrollo y aplicación de la IA. La elección de una teoría sobre otra puede depender del contexto específico, los objetivos del sistema de IA y las prioridades de los desarrolladores y usuarios. Dado que la IA afecta a una amplia gama de áreas, es probable que se necesite un enfoque ético híbrido y flexible que pueda adaptarse a diferentes situaciones y desafíos<a class="elsevierStyleCrossRefs" href="#bib0545"><span class="elsevierStyleSup">39–44</span></a>.</p></span><span id="sec0055" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0075">Futuro de la ética en la IA</span><p id="par0110" class="elsevierStylePara elsevierViewall">La posibilidad de que futuros desarrollos en IA conduzcan a sistemas que puedan exhibir formas de consciencia o autonomía avanzada plantea profundas implicaciones éticas y filosóficas. Reflexionar sobre estas posibilidades implica explorar preguntas fundamentales sobre la naturaleza de la consciencia, la identidad, y la ética en relación con entidades no humanas. A continuación, se analizan algunas de estas cuestiones:</p><span id="sec0060" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0080">La naturaleza de la consciencia en la IA</span><p id="par0115" class="elsevierStylePara elsevierViewall">Uno de los retos fundamentales es definir qué significa exactamente «consciencia» en el contexto de la IA. ¿Podría una IA ser verdaderamente consciente en el mismo sentido que los seres humanos, o su «consciencia» sería algo fundamentalmente diferente? Si se acepta que una IA puede ser consciente, esto lleva a cuestiones éticas sobre sus derechos, su trato y el respeto hacia su «experiencia» subjetiva.</p></span><span id="sec0065" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0085">Autonomía avanzada</span><p id="par0120" class="elsevierStylePara elsevierViewall">La autonomía avanzada en la IA se refiere a la capacidad de tomar decisiones complejas de manera independiente. Esto plantea preguntas sobre la responsabilidad y la rendición de cuentas, especialmente en situaciones críticas o de alto riesgo. A medida que la IA se vuelve más autónoma, surge la cuestión de cómo mantener el control sobre estas tecnologías y asegurar que sus decisiones estén alineadas con los valores y normas humanas<a class="elsevierStyleCrossRefs" href="#bib0575"><span class="elsevierStyleSup">45–49</span></a>.</p></span><span id="sec0070" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0090">Implicaciones éticas</span><p id="par0125" class="elsevierStylePara elsevierViewall">Si una IA es considerada consciente o altamente autónoma, ¿debería tener derechos? ¿Cómo definiríamos y protegeríamos esos derechos? La emergencia de IA consciente o autónoma podría transformar fundamentalmente la forma en que los humanos interactúan con las máquinas, desafiando nuestras concepciones actuales sobre la relación entre humanos y tecnología.</p></span><span id="sec0075" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0095">Derechos de la IA</span><p id="par0130" class="elsevierStylePara elsevierViewall">A medida que las IA se vuelven más avanzadas y autónomas, surge la pregunta de si deben considerarse entidades con derechos. Esto incluye cuestiones sobre si una IA puede o debe tener algún tipo de estatus legal o «personhood». Si se otorgan derechos a las IA, también se plantean preguntas sobre la responsabilidad. ¿Cómo se responsabiliza a una IA por sus acciones y decisiones? ¿Y cómo se equilibra su autonomía con la seguridad y el bienestar público?</p></span><span id="sec0080" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0100">Seguridad avanzada de la IA</span><p id="par0135" class="elsevierStylePara elsevierViewall">A medida que la IA se vuelve más autónoma y capaz, también aumenta el potencial de uso indebido o mal funcionamiento, lo que podría tener consecuencias graves para la seguridad pública y global. Se deben establecer marcos para controlar, y regular la IA es esencial para prevenir abusos y garantizar que la tecnología se use de manera segura y ética. Esto incluye salvaguardias contra la toma de decisiones autónoma en áreas críticas como la defensa y la seguridad nacional.</p></span><span id="sec0085" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0105">IA en la toma de decisiones globales</span><p id="par0140" class="elsevierStylePara elsevierViewall">La IA tiene el potencial de influir significativamente en la política global y la economía, desde la automatización del análisis de datos hasta la predicción de tendencias económicas y políticas. Además, la IA puede desempeñar un papel en la toma de decisiones en áreas como el cambio climático, la gestión de recursos y la diplomacia. Esto plantea preguntas éticas sobre la representatividad y la inclusión de diversas perspectivas humanas en tales decisiones<a class="elsevierStyleCrossRefs" href="#bib0600"><span class="elsevierStyleSup">50–53</span></a>.</p></span><span id="sec0090" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0110">Regulación y legislación</span><p id="par0145" class="elsevierStylePara elsevierViewall">Se debe desarrollar un marco legal que aborde específicamente los desafíos únicos presentados por la IA, incluyendo cuestiones de responsabilidad, derechos de propiedad intelectual y uso de datos. Asimismo, corresponde promover la creación de normativas internacionales para la IA, especialmente en áreas donde la tecnología trasciende las fronteras nacionales, como la ciberseguridad y la privacidad de datos<a class="elsevierStyleCrossRefs" href="#bib0620"><span class="elsevierStyleSup">54,55</span></a></p></span></span><span id="sec0095" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0115">Ética médica e inteligencia artificial</span><p id="par0150" class="elsevierStylePara elsevierViewall">En medicina, la IA tiene un potencial enorme pero también presenta grandes retos. Existe una amplia gama de aplicaciones de IA en medicina, lo que requiere una variedad de autores, editores y revisores con conocimientos sobre IA. La experiencia en IA está ligada a aplicaciones comerciales, por lo que sería necesaria una transparencia sobre posibles conflictos de interés. Además, en medicina, la IA debe someterse a rigurosos estudios similares a otros campos, aunque existen retos como la desalineación entre los datos de desarrollo y aplicación<a class="elsevierStyleCrossRefs" href="#bib0630"><span class="elsevierStyleSup">56,57</span></a>.</p><p id="par0155" class="elsevierStylePara elsevierViewall">A medida que la IA se convierte en una herramienta más común en el cuidado de la salud, sus implicaciones éticas se vuelven cada vez más críticas. Avances como la ley de Moore permitieron un aumento exponencial en capacidad de almacenamiento y potencia computacional. Esto posibilitó el desarrollo de aprendizaje automático, con aplicaciones como la lectura de imágenes médicas y detección precoz de brotes. Aun así, quedan desafíos por tratar como la estandarización de la investigación clínica con IA, el control de sesgos en datos, la protección de la privacidad y la definición de unas normas éticas. Los chatbots pueden ser útiles como ayuda a la documentación, aunque se requiere validar la precisión de sus respuestas. La IA mejorará el trabajo médico al liberar tiempo para la atención de pacientes, pero requiere una adaptación conjunta entre profesionales y herramientas<a class="elsevierStyleCrossRefs" href="#bib0640"><span class="elsevierStyleSup">58,59</span></a>.</p><p id="par0160" class="elsevierStylePara elsevierViewall">La IA ha permitido avances en la vigilancia de enfermedades infecciosas mediante sistemas de alerta temprana, clasificación de patógenos, evaluación de riesgos, identificación de focos de contagio y seguimiento epidemiológico. Así, tenemos el HealthMap para detección precoz de brotes, modelos de IA para automatizar lecturas microbiológicas y detección de resistencias antimicrobianas. También existen aplicaciones de aprendizaje reforzado para asignar pruebas COVID de forma óptima y del sistema EDS-HAT para rastrear brotes hospitalarios. Sin embargo, los desafíos incluyen la calidad y representatividad de los datos, preocupaciones por la privacidad, e incapacidad de la IA para reemplazar la cooperación internacional. La IA mejora la vigilancia pero requiere una metodología rigurosa que controle sesgos y evalúe de manera crítica la generalidad de los modelos. Su implementación exitosa depende de la cooperación global<a class="elsevierStyleCrossRef" href="#bib0650"><span class="elsevierStyleSup">60</span></a>. Por último, la IA está revolucionando varios aspectos del campo de la salud, incluyendo el diagnóstico médico, la personalización del tratamiento y la investigación farmacéutica. Aquí exploramos cómo la IA está impactando estas áreas:</p><span id="sec0100" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0120">Diagnóstico médico</span><p id="par0165" class="elsevierStylePara elsevierViewall">La IA está siendo utilizada para detectar enfermedades en etapas tempranas, mejorando significativamente las probabilidades de tratamiento exitoso. Por ejemplo, los algoritmos de IA en la radiología pueden identificar signos sutiles de enfermedades como el cáncer, que podrían pasar desapercibidos para el ojo humano<a class="elsevierStyleCrossRef" href="#bib0655"><span class="elsevierStyleSup">61</span></a>. Además, la IA también está revolucionando el análisis de imágenes médicas como rayos X, resonancias magnéticas y tomografías computarizadas, proporcionando diagnósticos más rápidos y precisos<a class="elsevierStyleCrossRef" href="#bib0660"><span class="elsevierStyleSup">62</span></a>.</p></span><span id="sec0105" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0125">Personalización del tratamiento</span><p id="par0170" class="elsevierStylePara elsevierViewall">La IA permite una medicina más personalizada, adaptando los tratamientos a las características individuales de cada paciente. Esto incluye la consideración de su genética, entorno y estilo de vida para formular tratamientos más efectivos. Asimismo, los sistemas de IA pueden ayudar a monitorizar y gestionar enfermedades crónicas, ajustando los tratamientos en tiempo real según la respuesta del paciente.</p></span><span id="sec0110" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0130">Investigación farmacéutica</span><p id="par0175" class="elsevierStylePara elsevierViewall">La IA está acelerando el descubrimiento y desarrollo de nuevos fármacos, analizando rápidamente vastas cantidades de datos para identificar potenciales compuestos y predecir su eficacia y seguridad<a class="elsevierStyleCrossRef" href="#bib0655"><span class="elsevierStyleSup">61</span></a>. También ayuda en la optimización de ensayos clínicos, desde la selección de candidatos hasta la monitorización de resultados y efectos secundarios<a class="elsevierStyleCrossRef" href="#bib0665"><span class="elsevierStyleSup">63</span></a>.</p></span><span id="sec0115" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0135">Ejemplos específicos</span><p id="par0180" class="elsevierStylePara elsevierViewall">Hay algunos algoritmos de IA que se utilizan para detectar cáncer de mama, piel y otros tipos a partir de imágenes médicas, a menudo con mayor precisión que los métodos tradicionales. Además, las aplicaciones móviles que utilizan IA para monitorizar signos vitales y síntomas proporcionan análisis y recomendaciones personalizadas.</p></span><span id="sec0120" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0140">Autonomía y consentimiento informado</span><p id="par0185" class="elsevierStylePara elsevierViewall">Un desafío importante es asegurar que los pacientes comprendan cómo la IA influirá en su diagnóstico y tratamiento. Esto es crucial para un consentimiento informado genuino. La IA debería utilizarse como una herramienta para apoyar, y no reemplazar, la toma de decisiones compartida entre médico y paciente, respetando la autonomía del paciente.</p></span><span id="sec0125" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0145">Privacidad y confidencialidad de los datos</span><p id="par0190" class="elsevierStylePara elsevierViewall">Los datos de salud son extremadamente sensibles. La IA en medicina requiere salvaguardas fuertes para proteger estos datos contra accesos no autorizados y brechas de seguridad. Los pacientes deben tener control sobre cómo se utilizan sus datos, y es esencial obtener su consentimiento para el uso de sus datos en el entrenamiento y aplicación de modelos de IA.</p></span><span id="sec0130" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0150">Calidad y equidad en la atención</span><p id="par0195" class="elsevierStylePara elsevierViewall">Los algoritmos de IA pueden perpetuar sesgos inherentes en los datos de entrenamiento. Es crucial desarrollar estrategias para identificar y mitigar estos sesgos para evitar disparidades en la atención. Además, debe garantizarse que los avances en IA no creen una división en la atención médica, donde solo ciertos grupos tengan acceso a la mejor atención posible.</p></span><span id="sec0135" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0155">Responsabilidad y toma de decisiones</span><p id="par0200" class="elsevierStylePara elsevierViewall">En casos de errores de diagnóstico o tratamiento involucrando IA, es esencial determinar quién es responsable: ¿el desarrollador de la IA, el profesional médico que la utiliza, o ambos? Los sistemas de IA deben ser transparentes y sus procesos de toma de decisiones han de ser explicables para que los profesionales médicos puedan confiar y entender sus recomendaciones.</p></span><span id="sec0140" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0160">Desafíos en investigación y desarrollo</span><p id="par0205" class="elsevierStylePara elsevierViewall">Todo desarrollo e investigación de IA en medicina debe realizarse de manera ética, respetando los derechos de los participantes y priorizando su bienestar. La colaboración entre expertos en tecnología, ética, derecho y medicina es vital. Además, es necesario formar a los profesionales de la salud en los aspectos éticos y prácticos de la IA. La precisión de la IA en la preparación para los exámenes de medicina interna, como los boards en Estados Unidos, se destaca en varios aspectos:<ul class="elsevierStyleList" id="lis0005"><li class="elsevierStyleListItem" id="lsti0005"><span class="elsevierStyleLabel">•</span><p id="par0210" class="elsevierStylePara elsevierViewall">Análisis de datos y patrones: la IA puede procesar y analizar grandes volúmenes de datos médicos, identificando patrones y tendencias que podrían ser difíciles de discernir para los humanos. Esto es particularmente útil en la preparación de exámenes, donde entender patrones en diagnósticos y tratamientos puede ser clave.</p></li><li class="elsevierStyleListItem" id="lsti0010"><span class="elsevierStyleLabel">•</span><p id="par0215" class="elsevierStylePara elsevierViewall">Personalización del aprendizaje: la IA puede adaptar los materiales de estudio a las necesidades individuales de los estudiantes. Mediante el análisis de respuestas previas y progreso del estudio, la IA puede identificar áreas débiles y fortalecerlas con recursos adicionales.</p></li><li class="elsevierStyleListItem" id="lsti0015"><span class="elsevierStyleLabel">•</span><p id="par0220" class="elsevierStylePara elsevierViewall">Actualización continua de contenidos: dado que el campo de la medicina está en constante evolución, la IA puede mantenerse al día con las investigaciones y guías clínicas más recientes, asegurando que los estudiantes estudien la información más actualizada y relevante.</p></li><li class="elsevierStyleListItem" id="lsti0020"><span class="elsevierStyleLabel">•</span><p id="par0225" class="elsevierStylePara elsevierViewall">Simulación de exámenes y evaluaciones: la IA puede generar exámenes de práctica que imitan el formato y estilo de los boards reales. Esto no solo ayuda a los estudiantes a familiarizarse con la estructura del examen, sino que también les permite evaluar su preparación de manera efectiva.</p></li><li class="elsevierStyleListItem" id="lsti0025"><span class="elsevierStyleLabel">•</span><p id="par0230" class="elsevierStylePara elsevierViewall">Feedback instantáneo y análisis de rendimiento: los sistemas de IA pueden proporcionar retroalimentación inmediata sobre preguntas de práctica, permitiendo a los estudiantes comprender y corregir errores al momento. Además, pueden analizar el rendimiento general para ofrecer recomendaciones específicas de estudio.</p></li><li class="elsevierStyleListItem" id="lsti0030"><span class="elsevierStyleLabel">•</span><p id="par0235" class="elsevierStylePara elsevierViewall">Integración de múltiples fuentes de conocimiento: presentando un enfoque de estudio más holístico y completo.</p></li><li class="elsevierStyleListItem" id="lsti0035"><span class="elsevierStyleLabel">•</span><p id="par0240" class="elsevierStylePara elsevierViewall">Reducción de sesgos y errores humanos: al depender de datos y algoritmos objetivos, la IA puede ayudar a reducir los sesgos personales y los errores que a menudo ocurren en el estudio tradicional.</p></li></ul></p><p id="par0245" class="elsevierStylePara elsevierViewall">Sin embargo, es crucial recordar que la IA es una herramienta de apoyo y no reemplaza el juicio clínico humano ni la experiencia práctica necesaria en medicina interna. Su uso más efectivo es como un complemento a las técnicas de estudio tradicionales y la formación clínica<a class="elsevierStyleCrossRefs" href="#bib0670"><span class="elsevierStyleSup">64-68</span></a>.</p><p id="par0250" class="elsevierStylePara elsevierViewall">Existen diferentes Chatbot de IA, de diversas compañías BART, Anthropic, Copilot, Claude, etc., y recientemente aparecerá Géminis. Cada una posee sus características. En el caso de ChatGPT, la cronología de aparición y actualización de sus diferentes versiones, desarrolladas por OpenAI, es la siguiente:<ul class="elsevierStyleList" id="lis0010"><li class="elsevierStyleListItem" id="lsti0040"><span class="elsevierStyleLabel">•</span><p id="par0255" class="elsevierStylePara elsevierViewall">GPT-3: presentado en junio de 2020, GPT-3 representó un salto significativo en términos de tamaño y complejidad, con 175 mil millones de documentos. Su capacidad para generar texto coherente y su versatilidad en diversas tareas lo convirtieron en un punto de referencia en la IA de lenguaje natural.</p></li><li class="elsevierStyleListItem" id="lsti0045"><span class="elsevierStyleLabel">•</span><p id="par0260" class="elsevierStylePara elsevierViewall">ChatGPT y GPT-3.5: ChatGPT, basado en una versión modificada de GPT-3.5, se lanzó a finales de 2022. Incorporó una capacidad de entrenamiento reforzado con retroalimentación humana, mejorando la relevancia y la precisión de las respuestas.</p></li><li class="elsevierStyleListItem" id="lsti0050"><span class="elsevierStyleLabel">•</span><p id="par0265" class="elsevierStylePara elsevierViewall">GPT-4: es la última versión conocida actualizada en abril 2023. Presenta mejoras significativas en comprensión, generación de texto, y capacidades multitarea en comparación con sus predecesores. Es probablemente el más potente en la actualidad. En febrero de 2024 volcaran de nuevo otra gran cantidad de datos.</p></li></ul></p><p id="par0270" class="elsevierStylePara elsevierViewall">Históricamente, las tecnologías de propósito general han tardado en cumplir sus promesas, un fenómeno conocido como «la paradoja de la productividad de la tecnología de la información». La implementación exitosa de nuevas tecnologías en la atención médica es particularmente desafiante. Sin embargo, la IA generativa tiene propiedades únicas que podrían acortar el retraso habitual entre la implementación y las ganancias en productividad y/o calidad. El ecosistema de atención médica ha evolucionado para ser más receptivo a la IA generativa y muchas organizaciones de atención médica están listas para implementar las innovaciones necesarias en cultura, liderazgo, fuerza laboral y flujo de trabajo.</p><p id="par0275" class="elsevierStylePara elsevierViewall">La capacidad de IA generativa para mejorar rápidamente y la capacidad de las organizaciones para implementar innovaciones complementarias indican que la IA generativa podría entregar mejoras significativas en la atención médica más rápidamente que las tecnologías anteriores.</p><p id="par0280" class="elsevierStylePara elsevierViewall">Asimismo, las tecnologías previas en atención médica, como los registros electrónicos de salud, han seguido un patrón similar a la paradoja de productividad, ofreciendo resultados mixtos en términos de eficiencia. Finalmente, aunque la implementación de IA generativa enfrenta desafíos únicos en la atención médica, sus características distintivas y la evolución reciente del ecosistema de atención médica ofrecen un camino prometedor para superar estos desafíos y alcanzar mejoras significativas<a class="elsevierStyleCrossRefs" href="#bib0695"><span class="elsevierStyleSup">69,70</span></a>.</p></span></span><span id="sec0145" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0165">Financiación</span><p id="par0285" class="elsevierStylePara elsevierViewall">No hay financiación para el artículo.</p></span><span id="sec0150" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0170">Conflicto de intereses</span><p id="par0290" class="elsevierStylePara elsevierViewall">No existen conflictos de intereses.</p></span></span>" "textoCompletoSecciones" => array:1 [ "secciones" => array:17 [ 0 => array:3 [ "identificador" => "xres2103428" "titulo" => "Resumen" "secciones" => array:1 [ 0 => array:1 [ "identificador" => "abst0005" ] ] ] 1 => array:2 [ "identificador" => "xpalclavsec1792402" "titulo" => "Palabras clave" ] 2 => array:3 [ "identificador" => "xres2103427" "titulo" => "Abstract" "secciones" => array:1 [ 0 => array:1 [ "identificador" => "abst0010" ] ] ] 3 => array:2 [ "identificador" => "xpalclavsec1792401" "titulo" => "Keywords" ] 4 => array:2 [ "identificador" => "sec0005" "titulo" => "Introducción" ] 5 => array:2 [ "identificador" => "sec0010" "titulo" => "Preguntas clave" ] 6 => array:3 [ "identificador" => "sec0015" "titulo" => "Evolución de la inteligencia artificial" "secciones" => array:2 [ 0 => array:2 [ "identificador" => "sec0020" "titulo" => "Historia y desarrollo de la IA" ] 1 => array:2 [ "identificador" => "sec0025" "titulo" => "Impacto en diversos sectores" ] ] ] 7 => array:2 [ "identificador" => "sec0030" "titulo" => "Principios básicos de la ética" ] 8 => array:2 [ "identificador" => "sec0035" "titulo" => "La «explicabilidad»" ] 9 => array:2 [ "identificador" => "sec0040" "titulo" => "Confianza y transparencia" ] 10 => array:2 [ "identificador" => "sec0045" "titulo" => "Facilitación de una IA confiable" ] 11 => array:2 [ "identificador" => "sec0050" "titulo" => "Diferentes teorías éticas en relación con la inteligencia artificial" ] 12 => array:3 [ "identificador" => "sec0055" "titulo" => "Futuro de la ética en la IA" "secciones" => array:7 [ 0 => array:2 [ "identificador" => "sec0060" "titulo" => "La naturaleza de la consciencia en la IA" ] 1 => array:2 [ "identificador" => "sec0065" "titulo" => "Autonomía avanzada" ] 2 => array:2 [ "identificador" => "sec0070" "titulo" => "Implicaciones éticas" ] 3 => array:2 [ "identificador" => "sec0075" "titulo" => "Derechos de la IA" ] 4 => array:2 [ "identificador" => "sec0080" "titulo" => "Seguridad avanzada de la IA" ] 5 => array:2 [ "identificador" => "sec0085" "titulo" => "IA en la toma de decisiones globales" ] 6 => array:2 [ "identificador" => "sec0090" "titulo" => "Regulación y legislación" ] ] ] 13 => array:3 [ "identificador" => "sec0095" "titulo" => "Ética médica e inteligencia artificial" "secciones" => array:9 [ 0 => array:2 [ "identificador" => "sec0100" "titulo" => "Diagnóstico médico" ] 1 => array:2 [ "identificador" => "sec0105" "titulo" => "Personalización del tratamiento" ] 2 => array:2 [ "identificador" => "sec0110" "titulo" => "Investigación farmacéutica" ] 3 => array:2 [ "identificador" => "sec0115" "titulo" => "Ejemplos específicos" ] 4 => array:2 [ "identificador" => "sec0120" "titulo" => "Autonomía y consentimiento informado" ] 5 => array:2 [ "identificador" => "sec0125" "titulo" => "Privacidad y confidencialidad de los datos" ] 6 => array:2 [ "identificador" => "sec0130" "titulo" => "Calidad y equidad en la atención" ] 7 => array:2 [ "identificador" => "sec0135" "titulo" => "Responsabilidad y toma de decisiones" ] 8 => array:2 [ "identificador" => "sec0140" "titulo" => "Desafíos en investigación y desarrollo" ] ] ] 14 => array:2 [ "identificador" => "sec0145" "titulo" => "Financiación" ] 15 => array:2 [ "identificador" => "sec0150" "titulo" => "Conflicto de intereses" ] 16 => array:1 [ "titulo" => "Bibliografía" ] ] ] "pdfFichero" => "main.pdf" "tienePdf" => true "fechaRecibido" => "2023-12-21" "fechaAceptado" => "2024-01-10" "PalabrasClave" => array:2 [ "es" => array:1 [ 0 => array:4 [ "clase" => "keyword" "titulo" => "Palabras clave" "identificador" => "xpalclavsec1792402" "palabras" => array:3 [ 0 => "Ética" 1 => "Inteligencia artificial" 2 => "Explicabilidad" ] ] ] "en" => array:1 [ 0 => array:4 [ "clase" => "keyword" "titulo" => "Keywords" "identificador" => "xpalclavsec1792401" "palabras" => array:3 [ 0 => "Ethics" 1 => "Artificial intelligence" 2 => "Explainability" ] ] ] ] "tieneResumen" => true "resumen" => array:2 [ "es" => array:2 [ "titulo" => "Resumen" "resumen" => "<span id="abst0005" class="elsevierStyleSection elsevierViewall"><p id="spar0005" class="elsevierStyleSimplePara elsevierViewall">La relación entre ética e inteligencia artificial en medicina es un tema crucial y complejo y se encuadra en su contexto más amplio. Así, la ética en inteligencia artificial médica implica asegurar que las tecnologías sean seguras, justas y respeten la privacidad de los pacientes. Esto incluye preocuparse de la precisión de los diagnósticos proporcionados por la inteligencia artificial, la equidad en el tratamiento de pacientes y la protección de los datos personales de salud.</p><p id="spar0010" class="elsevierStyleSimplePara elsevierViewall">Los avances en inteligencia artificial pueden mejorar significativamente la atención médica, desde diagnósticos más precisos hasta tratamientos personalizados. Sin embargo, es esencial que los desarrollos en inteligencia artificial médica se realicen con una consideración ética fuerte, involucrando a los pacientes, profesionales de la salud e inteligencia artificial y especialistas en ética para guiar y supervisar su implementación.</p><p id="spar0015" class="elsevierStyleSimplePara elsevierViewall">Por último, es fundamental la transparencia en los algoritmos de inteligencia artificial y la formación continua para los profesionales médicos.</p></span>" ] "en" => array:2 [ "titulo" => "Abstract" "resumen" => "<span id="abst0010" class="elsevierStyleSection elsevierViewall"><p id="spar0020" class="elsevierStyleSimplePara elsevierViewall">The relationship between ethics and artificial intelligence in medicine is a crucial and complex topic that falls within its broader context. Ethics in medical artificial intelligence involves ensuring that technologies are safe, fair, and respect patient privacy. This includes concerns about the accuracy of diagnoses provided by artificial intelligence, fairness in patient treatment, and protection of personal health data.</p><p id="spar0025" class="elsevierStyleSimplePara elsevierViewall">Advances in artificial intelligence can significantly improve healthcare, from more accurate diagnoses to personalized treatments. However, it is essential that developments in medical artificial intelligence are carried out with strong ethical consideration, involving healthcare professionals, artificial intelligence experts, patients, and ethics specialists to guide and oversee their implementation.</p><p id="spar0030" class="elsevierStyleSimplePara elsevierViewall">Finally, transparency in artificial intelligence algorithms and ongoing training for medical professionals are fundamental.</p></span>" ] ] "bibliografia" => array:2 [ "titulo" => "Bibliografía" "seccion" => array:1 [ 0 => array:2 [ "identificador" => "bibs0015" "bibliografiaReferencia" => array:70 [ 0 => array:3 [ "identificador" => "bib0355" "etiqueta" => "1" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "A unified framework of five principles for AI in society" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:2 [ 0 => "L. Floridi" 1 => "J. Cowls" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1162/99608f92.8cd550d1" "Revista" => array:3 [ "tituloSerie" => "Harvard Data Sci Rev" "fecha" => "2019" "volumen" => "1." ] ] ] ] ] ] 1 => array:3 [ "identificador" => "bib0360" "etiqueta" => "2" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:1 [ "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:2 [ 0 => "B. Mittelstadt" 1 => "Principles alone cannot guarantee ethical AI." ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1038/s42256-019-0114-4" "Revista" => array:5 [ "tituloSerie" => "Nat Mach Intell." "fecha" => "2019" "volumen" => "1" "paginaInicial" => "501" "paginaFinal" => "507" ] ] ] ] ] ] 2 => array:3 [ "identificador" => "bib0365" "etiqueta" => "3" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Research priorities for robust and beneficial artificial intelligence" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:3 [ 0 => "S. Russell" 1 => "D. Dewey" 2 => "M. Tegmark" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1609/aimag.v36i4.2577" "Revista" => array:5 [ "tituloSerie" => "Ai Magazine." "fecha" => "2015" "volumen" => "36" "paginaInicial" => "105" "paginaFinal" => "114" ] ] ] ] ] ] 3 => array:3 [ "identificador" => "bib0370" "etiqueta" => "4" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Dealing crisis management using AI" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:1 [ 0 => "Y.K. Wong" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.5121/ijcsea.2021.11502 15" "Revista" => array:5 [ "tituloSerie" => "IJCSEA." "fecha" => "2021" "volumen" => "11" "paginaInicial" => "15" "paginaFinal" => "22" ] ] ] ] ] ] 4 => array:3 [ "identificador" => "bib0375" "etiqueta" => "5" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Artificial intelligence: A modern approach" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:2 [ 0 => "S. Russell" 1 => "P. Norvig" ] ] ] ] ] "host" => array:1 [ 0 => array:1 [ "Libro" => array:4 [ "edicion" => "Third ed." "fecha" => "2010" "editorial" => "Prentice Hall series in artificial intelligence" "editorialLocalizacion" => "New York" ] ] ] ] ] ] 5 => array:3 [ "identificador" => "bib0380" "etiqueta" => "6" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Computing machinery and intelligence" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:1 [ 0 => "A.M. Turing" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1093/mind/lix.236.433" "Revista" => array:5 [ "tituloSerie" => "Mind." "fecha" => "1950" "volumen" => "5" "paginaInicial" => "433" "paginaFinal" => "460" ] ] ] ] ] ] 6 => array:3 [ "identificador" => "bib0385" "etiqueta" => "7" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Artificial intelligence in health: New opportunities challenges, and practical implications" "autores" => array:1 [ 0 => array:3 [ "colaboracion" => "Section Editors for the IMIA Yearbook Section on Education and Consumer Health Informatics" "etal" => false "autores" => array:2 [ 0 => "A.Y.S. Lau" 1 => "P. Staccini" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1055/s-0039-1677935" "Revista" => array:6 [ "tituloSerie" => "Yearb Med Inform." "fecha" => "2019" "volumen" => "28" "paginaInicial" => "174" "paginaFinal" => "178" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/31419829" "web" => "Medline" ] ] ] ] ] ] ] ] 7 => array:3 [ "identificador" => "bib0390" "etiqueta" => "8" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Where machines could replace humans–and where they can’t (yet)" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:3 [ 0 => "M. Chui" 1 => "J. Manyika" 2 => "M. Miremadi" ] ] ] ] ] "host" => array:1 [ 0 => array:1 [ "Revista" => array:5 [ "tituloSerie" => "McKinsey Quarterly" "fecha" => "2016" "volumen" => "12" "paginaInicial" => "1" "paginaFinal" => "13" ] ] ] ] ] ] 8 => array:3 [ "identificador" => "bib0395" "etiqueta" => "9" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "The globalization of ethics: Ten challenges" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:1 [ 0 => "D. Callahan" ] ] ] ] ] "host" => array:1 [ 0 => array:1 [ "Revista" => array:5 [ "tituloSerie" => "The Hastings Center Report" "fecha" => "2017" "volumen" => "47" "paginaInicial" => "28" "paginaFinal" => "37" ] ] ] ] ] ] 9 => array:3 [ "identificador" => "bib0400" "etiqueta" => "10" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "What is data ethics?" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:2 [ 0 => "L. Floridi" 1 => "M. Taddeo" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1098/rsta.2016.0360" "Revista" => array:3 [ "tituloSerie" => "Philos Trans A Math Phys Eng Sci." "fecha" => "2016" "volumen" => "374" ] ] ] ] ] ] 10 => array:3 [ "identificador" => "bib0405" "etiqueta" => "11" "referencia" => array:1 [ 0 => array:1 [ "referenciaCompleta" => "Amershi S, Weld D, Vorvoreanu M, Fourney A, Nushi B, Collisson P, et al. Guidelines for human-AI interaction. En: Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems. 2019. p.1-13. doi: 10.1145/3290605.3300233" ] ] ] 11 => array:3 [ "identificador" => "bib0410" "etiqueta" => "12" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "The global landscape of AI ethics guidelines" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:3 [ 0 => "A. Jobin" 1 => "M. Ienca" 2 => "E. Vayena" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1038/s42256-019-0088-2" "Revista" => array:5 [ "tituloSerie" => "Nat Mach Intell" "fecha" => "2019" "volumen" => "1" "paginaInicial" => "389" "paginaFinal" => "399" ] ] ] ] ] ] 12 => array:3 [ "identificador" => "bib0415" "etiqueta" => "13" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Tech giants, artificial intelligence, and the future of journalis" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:1 [ 0 => "J.P. Whittaker" ] ] ] ] ] "host" => array:1 [ 0 => array:1 [ "Libro" => array:4 [ "edicion" => "1.<span class="elsevierStyleSup">a</span> ed" "fecha" => "2019" "editorial" => "Routledge" "editorialLocalizacion" => "New York and London" ] ] ] ] ] ] 13 => array:3 [ "identificador" => "bib0420" "etiqueta" => "14" "referencia" => array:1 [ 0 => array:1 [ "referenciaCompleta" => "Lipton ZC. The mythos of model interpretability. En: Proceedings of the 2016 ICML workshop on human interpretability in machine learning (WHI 2016) [consultado 21 Dic 2023]. Disponible en: <a target="_blank" href="https://arxiv.org/pdf/1606.03490.pdf">https://arxiv.org/pdf/1606.03490.pdf</a>" ] ] ] 14 => array:3 [ "identificador" => "bib0425" "etiqueta" => "15" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Foundations for a new science of learning" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:4 [ 0 => "A.N. Meltzoff" 1 => "P.K. Kuhl" 2 => "J. Movellan" 3 => "T.J. Sejnowski" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1126/science.1175626" "Revista" => array:6 [ "tituloSerie" => "Science." "fecha" => "2009" "volumen" => "325" "paginaInicial" => "284" "paginaFinal" => "288" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/19608908" "web" => "Medline" ] ] ] ] ] ] ] ] 15 => array:3 [ "identificador" => "bib0430" "etiqueta" => "16" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "The second machine age: Work, progress and prosperity in a time of brilliant technologies" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:2 [ 0 => "E. Brynjolfsson" 1 => "A. McAfee" ] ] ] ] ] "host" => array:1 [ 0 => array:1 [ "Libro" => array:2 [ "fecha" => "2014" "editorial" => "W W Norton & Co" ] ] ] ] ] ] 16 => array:3 [ "identificador" => "bib0435" "etiqueta" => "17" "referencia" => array:1 [ 0 => array:1 [ "referenciaCompleta" => "Bolukbasi T, Chang K, Zou J, Saligrama V, Kalai A. Man is to computer programmer as woman is to homemaker? Debiasing word embeddings. In Advances in neural information processing systems. 30th Conference on Neural Information Processing Systems (NIPS 2016). Barcelona, Spain. 2016. p.4349-4357. Washington, DC [consultado 21 Dic 2023]. Disponible en: <a target="_blank" href="https://proceedings.neurips.cc/paper_files/paper/2016/file/a486cd07e4ac3d270571622f4f316ec5-Paper.pdf">https://proceedings.neurips.cc/paper_files/paper/2016/file/a486cd07e4ac3d270571622f4f316ec5-Paper.pdf</a>" ] ] ] 17 => array:3 [ "identificador" => "bib0440" "etiqueta" => "18" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Towards a rigorous science of interpretable machine learning" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:2 [ 0 => "F. Doshi-Velez" 1 => "B. Kim" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.48550/arXiv.1702.08608" "Revista" => array:2 [ "tituloSerie" => "arXiv." "fecha" => "2017" ] ] ] ] ] ] 18 => array:3 [ "identificador" => "bib0445" "etiqueta" => "19" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Explanation in artificial intelligence: Insights from the social sciences" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:1 [ 0 => "T. Miller" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1016/j.artint.2018.07.007" "Revista" => array:5 [ "tituloSerie" => "AI." "fecha" => "2019" "volumen" => "267" "paginaInicial" => "1" "paginaFinal" => "38" ] ] ] ] ] ] 19 => array:3 [ "identificador" => "bib0450" "etiqueta" => "20" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "DARPA's Explainable Artificial Intelligence (XAI) Program" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:2 [ 0 => "D. Gunning" 1 => "D. Aha" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1609/aimag.v40i2.2850" "Revista" => array:5 [ "tituloSerie" => "AI Magazine." "fecha" => "2019" "volumen" => "40" "paginaInicial" => "44" "paginaFinal" => "58" ] ] ] ] ] ] 20 => array:3 [ "identificador" => "bib0455" "etiqueta" => "21" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Principles of biomedical ethics" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:2 [ 0 => "T.L. Beauchamp" 1 => "J.F. Childress" ] ] ] ] ] "host" => array:1 [ 0 => array:1 [ "Libro" => array:3 [ "fecha" => "2012" "editorial" => "Oxford University Press" "editorialLocalizacion" => "Oxford" ] ] ] ] ] ] 21 => array:3 [ "identificador" => "bib0460" "etiqueta" => "22" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Development of artificial empathy" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:1 [ 0 => "M. Asada" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1016/j.neures.2014.12.002" "Revista" => array:6 [ "tituloSerie" => "Neurosci Res." "fecha" => "2015" "volumen" => "90" "paginaInicial" => "41" "paginaFinal" => "50" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/25498950" "web" => "Medline" ] ] ] ] ] ] ] ] 22 => array:3 [ "identificador" => "bib0465" "etiqueta" => "23" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Fake news in the internet. Editorial" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:1 [ 0 => "Vladimir Zwass" ] ] ] ] ] "host" => array:1 [ 0 => array:1 [ "Revista" => array:5 [ "tituloSerie" => "J Manag Inf Syst" "fecha" => "2021" "volumen" => "38" "paginaInicial" => "889" "paginaFinal" => "892" ] ] ] ] ] ] 23 => array:3 [ "identificador" => "bib0470" "etiqueta" => "24" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Robot ethics 2. 0: From autonomous cars to artificial intelligence" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:3 [ 0 => "P. Lin" 1 => "K. Abney" 2 => "R. Jenkins" ] ] ] ] ] "host" => array:1 [ 0 => array:1 [ "Revista" => array:2 [ "tituloSerie" => "Oxford University Press" "fecha" => "2017" ] ] ] ] ] ] 24 => array:3 [ "identificador" => "bib0475" "etiqueta" => "25" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Granny and the robots: Ethical issues in robot care for the elderly" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:2 [ 0 => "A. Sharkey" 1 => "N. Sharkey" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1007/s10676-010-9234-6" "Revista" => array:5 [ "tituloSerie" => "Ethics Inf Technol" "fecha" => "2012" "volumen" => "14" "paginaInicial" => "27" "paginaFinal" => "40" ] ] ] ] ] ] 25 => array:3 [ "identificador" => "bib0480" "etiqueta" => "26" "referencia" => array:1 [ 0 => array:1 [ "referenciaCompleta" => "Boland H. Tencent executive urges Europe to focus on ethical uses of artificial intelligence. The Telegraph. 2018. October, 14. Disponible en: <a target="_blank" href="https://www.telegraph.co.uk/technology/2018/10/14/tencent-executive-urges-europe-focus-ethical-uses-artificial">https://www.telegraph.co.uk/technology/2018/10/14/tencent-executive-urges-europe-focus-ethical-uses-artificial</a>" ] ] ] 26 => array:3 [ "identificador" => "bib0485" "etiqueta" => "27" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Explainable artificial intelligence (XAI) Defense Advanced Research Projects Agency (DARPA). First edition" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:1 [ 0 => "D. Gunning" ] ] ] ] ] "host" => array:1 [ 0 => array:1 [ "Libro" => array:3 [ "fecha" => "2017" "editorial" => "Wiley Blackwell" "editorialLocalizacion" => "London" ] ] ] ] ] ] 27 => array:3 [ "identificador" => "bib0490" "etiqueta" => "28" "referencia" => array:1 [ 0 => array:1 [ "referenciaCompleta" => "Binns R. Fairness in machine learning: Lessons from political philosophy. Conference on Fairness, Accountability, and Transparency. New York, Forthcoming Proceedings of Machine Learning Research. 2018;81:1-11 [consultado 21 Dic 2023]. DIsponible en: <a target="_blank" href="https://proceedings.mlr.press/v81/binns18a/binns18a.pdf">https://proceedings.mlr.press/v81/binns18a/binns18a.pdf</a>" ] ] ] 28 => array:3 [ "identificador" => "bib0495" "etiqueta" => "29" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "The limits of notice and choice" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:1 [ 0 => "F.H. Cate" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1109/MSP. 2010.84" "Revista" => array:6 [ "tituloSerie" => "IEEE Security & Privacy" "fecha" => "2006" "volumen" => "4" "paginaInicial" => "59" "paginaFinal" => "62" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/38437078" "web" => "Medline" ] ] ] ] ] ] ] ] 29 => array:3 [ "identificador" => "bib0500" "etiqueta" => "30" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Concrete problems in AI safety" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:6 [ 0 => "D. Amodei" 1 => "C. Olah" 2 => "J. Steinhardt" 3 => "P. Christiano" 4 => "J. Schulman" 5 => "D. Mané" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.48550/arXiv.1606.06565" "Revista" => array:2 [ "tituloSerie" => "arXiv" "fecha" => "2016" ] ] ] ] ] ] 30 => array:3 [ "identificador" => "bib0505" "etiqueta" => "31" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Value aligned agents must avoid final ends preferences" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:3 [ 0 => "O.A. Osoba" 1 => "B. Boudreaux" 2 => "D. Yeung" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1145/3375627.3375872" "Revista" => array:2 [ "tituloSerie" => "arXiv" "fecha" => "2017" ] ] ] ] ] ] 31 => array:3 [ "identificador" => "bib0510" "etiqueta" => "32" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Principles and practice of explainable machine learning" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:2 [ 0 => "V. Belle" 1 => "I. Papantonis" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.3389/fdata.2021.688969" "Revista" => array:4 [ "tituloSerie" => "Front Big Data." "fecha" => "2021" "volumen" => "4" "numero" => "688969" ] ] ] ] ] ] 32 => array:3 [ "identificador" => "bib0515" "etiqueta" => "33" "referencia" => array:1 [ 0 => array:1 [ "referenciaCompleta" => "Hallevy G. The Criminal Liability of Artificial Intelligence Entities - from Science Fiction to Legal Social Control. Akron Intell. Prop. J. 2010; Vol. 4: Iss. 2, Article 1 [consultado 21 Dic 2023]. Disponible en: <a target="_blank" href="https://ideaexchange.uakron.edu/akronintellectualproperty/vol4/iss2/1">https://ideaexchange.uakron.edu/akronintellectualproperty/vol4/iss2/1</a>" ] ] ] 33 => array:3 [ "identificador" => "bib0520" "etiqueta" => "34" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Mind children. The Future of robot and human Intelligence" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:1 [ 0 => "H. Moravec" ] ] ] ] ] "host" => array:1 [ 0 => array:1 [ "Libro" => array:3 [ "fecha" => "1990" "editorial" => "Harvard University Press" "editorialLocalizacion" => "Washington DC" ] ] ] ] ] ] 34 => array:3 [ "identificador" => "bib0525" "etiqueta" => "35" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Artificial intelligence and the ‘Good Society’: the US EU, and UK approach" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:5 [ 0 => "C. Cath" 1 => "S. Wachter" 2 => "B. Mittelstadt" 3 => "M. Taddeo" 4 => "L. Floridi" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1007/s11948-017-9901-7" "Revista" => array:6 [ "tituloSerie" => "Sci Eng Ethics" "fecha" => "2018" "volumen" => "24" "paginaInicial" => "505" "paginaFinal" => "528" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/28353045" "web" => "Medline" ] ] ] ] ] ] ] ] 35 => array:3 [ "identificador" => "bib0530" "etiqueta" => "36" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:1 [ "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:1 [ 0 => "M. Boden" ] ] ] ] ] "host" => array:1 [ 0 => array:1 [ "Libro" => array:4 [ "edicion" => "1.<span class="elsevierStyleSup">a</span> ed." "fecha" => "2006" "editorial" => "Oxford University Press" "editorialLocalizacion" => "Oxford" ] ] ] ] ] ] 36 => array:3 [ "identificador" => "bib0535" "etiqueta" => "37" "referencia" => array:1 [ 0 => array:1 [ "referenciaCompleta" => "Cave S, Ó hÉigeartaigh S. An AI race for strategic advantage: Rhetoric and risks (November 15, 2017). AAAI /ACM conference on Artificial Intelligence, Ethics and Society 2018. Disponible en: <a target="_blank" href="https://ssrn.com/abstract=3446708">https://ssrn.com/abstract=3446708</a>" ] ] ] 37 => array:3 [ "identificador" => "bib0540" "etiqueta" => "38" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Whole brain emulation: A roadmap. Technical Report" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:2 [ 0 => "A. Sandberg" 1 => "N. Bostrom" ] ] ] ] ] "host" => array:1 [ 0 => array:1 [ "Libro" => array:4 [ "edicion" => "3.<span class="elsevierStyleSup">a</span> ed." "fecha" => "2008" "editorial" => "Oxford University." "editorialLocalizacion" => "Oxford" ] ] ] ] ] ] 38 => array:3 [ "identificador" => "bib0545" "etiqueta" => "39" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Robot ethics: The ethical and social implications of robotics" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:3 [ 0 => "P. Lin" 1 => "K. Abney" 2 => "G.A. Bekey" ] ] ] ] ] "host" => array:1 [ 0 => array:1 [ "Revista" => array:2 [ "tituloSerie" => "MIT Press." "fecha" => "2014" ] ] ] ] ] ] 39 => array:3 [ "identificador" => "bib0550" "etiqueta" => "40" "referencia" => array:1 [ 0 => array:1 [ "referenciaCompleta" => "Buolamwini J, Gebru T, Gender shades: Intersectional accuracy disparities in commercial gender classification. En: Conference on fairness, accountability and transparency. 2018. p.77- 91 [consultado 21 Dic 2023]. Disponible en: <a target="_blank" href="https://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf">https://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf</a>" ] ] ] 40 => array:3 [ "identificador" => "bib0555" "etiqueta" => "41" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "The criminal liability of artificial intelligence entities-from science fiction to legal social control" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:1 [ 0 => "G. Hallevy" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.2139/ssrn.1564096" "Revista" => array:4 [ "tituloSerie" => "Akron Intell. Prop. J." "fecha" => "2020" "volumen" => "4" "paginaInicial" => "171" ] ] ] ] ] ] 41 => array:3 [ "identificador" => "bib0560" "etiqueta" => "42" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "A critique of pure learning and what artificial neural networks can learn from animal brains" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:1 [ 0 => "A.M. Zador" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1038/s41467-019-11786-6" "Revista" => array:5 [ "tituloSerie" => "Nat Commun." "fecha" => "2019" "volumen" => "10" "paginaInicial" => "3770" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/31434893" "web" => "Medline" ] ] ] ] ] ] ] ] 42 => array:3 [ "identificador" => "bib0565" "etiqueta" => "43" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Playing with the data: What legal scholars should learn about machine learning" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:2 [ 0 => "D. Lehr" 1 => "P. Ohm" ] ] ] ] ] "host" => array:1 [ 0 => array:1 [ "Revista" => array:4 [ "tituloSerie" => "UCDL Rev." "fecha" => "2017" "volumen" => "51" "paginaInicial" => "653" ] ] ] ] ] ] 43 => array:3 [ "identificador" => "bib0570" "etiqueta" => "44" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Fostering responsible anticipation in engineering ethics education: How a multi-disciplinary enrichment of the responsible innovation framework can help" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:3 [ 0 => "J. Van Grunsven" 1 => "T. Stone" 2 => "L. Marin" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1080/03043797.2023.2218275" "Revista" => array:4 [ "tituloSerie" => "Eur J Eng Educ" "fecha" => "2022" "paginaInicial" => "1" "paginaFinal" => "16" ] ] ] ] ] ] 44 => array:3 [ "identificador" => "bib0575" "etiqueta" => "45" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Definitions and conceptual dimensions of responsible research and innovation: A literature review" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:3 [ 0 => "M. Burget" 1 => "E. Bardone" 2 => "M. Pedaste" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1007/s11948-016-9782-1" "Revista" => array:6 [ "tituloSerie" => "Sci Eng Ethics" "fecha" => "2017" "volumen" => "23" "paginaInicial" => "1" "paginaFinal" => "19" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/27090147" "web" => "Medline" ] ] ] ] ] ] ] ] 45 => array:3 [ "identificador" => "bib0580" "etiqueta" => "46" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Ethical Considerations from Child-Robot Interactions in Under-Resourced Communities" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:5 [ 0 => "D.K. Singh" 1 => "M. Kumar" 2 => "E. Fosch-Villaronga" 3 => "D. Singh" 4 => "J. Shukla" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1007/s12369-022-00882-1" "Revista" => array:4 [ "tituloSerie" => "Int J Social Rob." "fecha" => "2022" "paginaInicial" => "1" "paginaFinal" => "17" ] ] ] ] ] ] 46 => array:3 [ "identificador" => "bib0585" "etiqueta" => "47" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Interactions with robots: The truths we reveal about ourselves" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:1 [ 0 => "E. Broadbent" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1146/annurev-psych-010416-043958" "Revista" => array:6 [ "tituloSerie" => "Annu Rev Psychol." "fecha" => "2017" "volumen" => "68" "paginaInicial" => "627" "paginaFinal" => "652" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/27648986" "web" => "Medline" ] ] ] ] ] ] ] ] 47 => array:3 [ "identificador" => "bib0590" "etiqueta" => "48" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "A technoethical review of commercial drone use in the context of governance, ethics, and privacy" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:2 [ 0 => "R. Luppicini" 1 => "A. So" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1016/j.techsoc.2016.03.003" "Revista" => array:5 [ "tituloSerie" => "Technol Soc." "fecha" => "2016" "volumen" => "46" "paginaInicial" => "109" "paginaFinal" => "119" ] ] ] ] ] ] 48 => array:3 [ "identificador" => "bib0595" "etiqueta" => "49" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "How AI can be a force for good" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:2 [ 0 => "M. Taddeo" 1 => "L. Floridi" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1126/science.aat5991" "Revista" => array:6 [ "tituloSerie" => "Science." "fecha" => "2018" "volumen" => "361" "paginaInicial" => "751" "paginaFinal" => "752" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/30139858" "web" => "Medline" ] ] ] ] ] ] ] ] 49 => array:3 [ "identificador" => "bib0600" "etiqueta" => "50" "referencia" => array:1 [ 0 => array:1 [ "referenciaCompleta" => "Draft Ethics guidelines for trustworthy AI. This working document constitutes a draft of the AI Ethics Guidelines presented by the European Commission's High-Level Expert Group on Artificial Intelligence (AI HLEG). REPORT /STUDY | Publication 18 December 2018." ] ] ] 50 => array:3 [ "identificador" => "bib0605" "etiqueta" => "51" "referencia" => array:1 [ 0 => array:1 [ "host" => array:1 [ 0 => array:1 [ "LibroEditado" => array:4 [ "editores" => "D.J.Baker, P.H.Robinson" "titulo" => "Artificial Intelligence and the Law Cybercrime and Criminal Liability" "edicion" => "1.<span class="elsevierStyleSup">a</span> ed." "serieFecha" => "2022" ] ] ] ] ] ] 51 => array:3 [ "identificador" => "bib0610" "etiqueta" => "52" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "The dataset nutrition label: A framework to drive higher data quality standards" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:5 [ 0 => "S. Holland" 1 => "A. Hosny" 2 => "S. Newman" 3 => "J. Joseph" 4 => "K. Chmielinski" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.48550/arXiv.1805.03677" "Revista" => array:3 [ "tituloSerie" => "arXiv" "fecha" => "2018" "paginaInicial" => "1805" ] ] ] ] ] ] 52 => array:3 [ "identificador" => "bib0615" "etiqueta" => "53" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Artificial intelligence policy: A primer and roadmap" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:1 [ 0 => "R. Calo" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.2139/ssrn.3015350" "Revista" => array:4 [ "tituloSerie" => "UCDL Rev." "fecha" => "2017" "volumen" => "51" "paginaInicial" => "399" ] ] ] ] ] ] 53 => array:3 [ "identificador" => "bib0620" "etiqueta" => "54" "referencia" => array:1 [ 0 => array:1 [ "referenciaCompleta" => "Diario La Ley. (2022). La Ley 15/2022 introduce la primera regulación positiva de la inteligencia artificial [recuperado de: diariolaley.laleynext.es Jun 2023]." ] ] ] 54 => array:3 [ "identificador" => "bib0625" "etiqueta" => "55" "referencia" => array:1 [ 0 => array:1 [ "referenciaCompleta" => "Parlamento Europeo. (2021). Ley de IA de la UE: primera normativa sobre inteligencia artificial [recuperado de: <a target="_blank" href="http://www.europarl.europa.eu/">www.europarl.europa.eu</a>; 14 Jun 2023]." ] ] ] 55 => array:3 [ "identificador" => "bib0630" "etiqueta" => "56" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "The birth of the clinic" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:1 [ 0 => "M. Foucault" ] ] ] ] ] "host" => array:1 [ 0 => array:1 [ "Libro" => array:4 [ "edicion" => "3rd ed." "fecha" => "2003" "editorial" => "Abingdon, United Kingdom" "editorialLocalizacion" => "Abingdon, United Kingdom" ] ] ] ] ] ] 56 => array:3 [ "identificador" => "bib0635" "etiqueta" => "57" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Competencies for the use of artificial intelligence-Based tools by health care professionals" "autores" => array:1 [ 0 => array:2 [ "etal" => true "autores" => array:6 [ 0 => "R.G. Russell" 1 => "L. Lovett Novak" 2 => "M. Patel" 3 => "K.V. Garvey" 4 => "K.J.T. Craig" 5 => "G.P. Jackson" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1097/ACM. 0000000000004963" "Revista" => array:6 [ "tituloSerie" => "Acad Med." "fecha" => "2023" "volumen" => "98" "paginaInicial" => "348" "paginaFinal" => "356" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/36731054" "web" => "Medline" ] ] ] ] ] ] ] ] 57 => array:3 [ "identificador" => "bib0640" "etiqueta" => "58" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Medical records that guide and teach" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:1 [ 0 => "L.L. Weed" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1056/NEJM196803212781204" "Revista" => array:6 [ "tituloSerie" => "N Engl J Med." "fecha" => "1968" "volumen" => "278" "paginaInicial" => "652" "paginaFinal" => "657" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/5637250" "web" => "Medline" ] ] ] ] ] ] ] ] 58 => array:3 [ "identificador" => "bib0645" "etiqueta" => "59" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "The criminal liability of artificial intelligence entities - from science fiction to legal social control" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:1 [ 0 => "G. Hallevy" ] ] ] ] ] "host" => array:1 [ 0 => array:1 [ "Revista" => array:3 [ "tituloSerie" => "Akron Intell Prop J." "fecha" => "2010" "volumen" => "4" ] ] ] ] ] ] 59 => array:3 [ "identificador" => "bib0650" "etiqueta" => "60" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Advances in artificial intelligence for infectious-disease surveillance" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:4 [ 0 => "J.S. Brownstein" 1 => "B. Rader" 2 => "C.M. Astley" 3 => "H. Tian" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1056/NEJMra2119215" "Revista" => array:5 [ "tituloSerie" => "N Engl J Med" "fecha" => "2023" "volumen" => "388" "paginaInicial" => "1597" "paginaFinal" => "1607" ] ] ] ] ] ] 60 => array:3 [ "identificador" => "bib0655" "etiqueta" => "61" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Artificial intelligence in molecular medicine" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:2 [ 0 => "B. Gomes" 1 => "E.A. Ashley" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1056/NEJMra2204787" "Revista" => array:6 [ "tituloSerie" => "N Engl J Med" "fecha" => "2023" "volumen" => "388" "paginaInicial" => "2456" "paginaFinal" => "2465" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/37379136" "web" => "Medline" ] ] ] ] ] ] ] ] 61 => array:3 [ "identificador" => "bib0660" "etiqueta" => "62" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "The current and future state of AI interpretation of medical images" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:2 [ 0 => "P. Rajpurkar" 1 => "M.P. Lungren" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1056/NEJMra2301725" "Revista" => array:6 [ "tituloSerie" => "N Engl J Med" "fecha" => "2023" "volumen" => "388" "paginaInicial" => "1981" "paginaFinal" => "1990" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/37224199" "web" => "Medline" ] ] ] ] ] ] ] ] 62 => array:3 [ "identificador" => "bib0665" "etiqueta" => "63" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Considering biased data as informative artifacts in AI-assisted health care" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:3 [ 0 => "K. Kadija Ferryman" 1 => "M. Maxine Mackintosh" 2 => "M. Marzyeh Ghassemi" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1056/NEJMra2214964" "Revista" => array:6 [ "tituloSerie" => "N Engl J Med" "fecha" => "2023" "volumen" => "389" "paginaInicial" => "833" "paginaFinal" => "838" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/37646680" "web" => "Medline" ] ] ] ] ] ] ] ] 63 => array:3 [ "identificador" => "bib0670" "etiqueta" => "64" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Artificial intelligence and machine learning in clinical medicine" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:1 [ 0 => "K. Shibue" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1056/NEJMc2305287" "Revista" => array:5 [ "tituloSerie" => "N Engl J Med." "fecha" => "2023" "volumen" => "388" "paginaInicial" => "2398" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/37342938" "web" => "Medline" ] ] ] ] ] ] ] ] 64 => array:3 [ "identificador" => "bib0675" "etiqueta" => "65" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Benefits, limits, and risks of GPT-4 as an AI chatbot for medicine" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:3 [ 0 => "P. Lee" 1 => "S. Bubeck" 2 => "J. Petro" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1056/NEJMsr 2214184" "Revista" => array:6 [ "tituloSerie" => "N Engl J Med." "fecha" => "2023" "volumen" => "388" "paginaInicial" => "1233" "paginaFinal" => "1239" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/36988602" "web" => "Medline" ] ] ] ] ] ] ] ] 65 => array:3 [ "identificador" => "bib0680" "etiqueta" => "66" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "A systematic review of artificial intelligence chatbots for promoting physical activity, healthy diet, and weight loss" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:4 [ 0 => "Y.J. Oh" 1 => "J. Zhang" 2 => "M.L. Fang" 3 => "Y. Fukuoka" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1186/s12966-021-01224-6" "Revista" => array:5 [ "tituloSerie" => "Int J Behav Nutr Phys Act." "fecha" => "2021" "volumen" => "18" "paginaInicial" => "160" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/34895247" "web" => "Medline" ] ] ] ] ] ] ] ] 66 => array:3 [ "identificador" => "bib0685" "etiqueta" => "67" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "The clinician and dataset shift in artificial intelligence" "autores" => array:1 [ 0 => array:2 [ "etal" => true "autores" => array:6 [ 0 => "S.G. Finlayson" 1 => "A. Subbaswamy" 2 => "K. Singh" 3 => "J. Bowers" 4 => "A. Kupke" 5 => "J. Zittrain" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1056/NEJMc2104626" "Revista" => array:6 [ "tituloSerie" => "N Engl J Med." "fecha" => "2021" "volumen" => "385" "paginaInicial" => "283" "paginaFinal" => "286" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/34260843" "web" => "Medline" ] ] ] ] ] ] ] ] 67 => array:3 [ "identificador" => "bib0690" "etiqueta" => "68" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Artificial Intelligence in U.S. Health Care Delivery" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:2 [ 0 => "N.RP Sahni" 1 => "B. Carrus" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1056/NEJMc2310288" "Revista" => array:6 [ "tituloSerie" => "N Engl J Med" "fecha" => "2023" "volumen" => "389" "paginaInicial" => "348" "paginaFinal" => "358" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/37494486" "web" => "Medline" ] ] ] ] ] ] ] ] 68 => array:3 [ "identificador" => "bib0695" "etiqueta" => "69" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Will generative artificial intelligence deliver on its promise in health care?" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:2 [ 0 => "R.M. Wachter" 1 => "E. Brynjolfsson" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1001/jama.2023.25054" "Revista" => array:3 [ "tituloSerie" => "JAMA." "fecha" => "2023" "volumen" => "30" ] ] ] ] ] ] 69 => array:3 [ "identificador" => "bib0700" "etiqueta" => "70" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "AI and medical education - A 21st-Century Pandora's Box" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:2 [ 0 => "A. Cooper" 1 => "A. Rodman" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1056/NEJMp2304993" "Revista" => array:6 [ "tituloSerie" => "N Engl J Med." "fecha" => "2023" "volumen" => "389" "paginaInicial" => "385" "paginaFinal" => "387" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/37522417" "web" => "Medline" ] ] ] ] ] ] ] ] ] ] ] ] ] "idiomaDefecto" => "es" "url" => "/00142565/0000022400000003/v1_202403090624/S0014256524000262/v1_202403090624/es/main.assets" "Apartado" => array:4 [ "identificador" => "1030" "tipo" => "SECCION" "es" => array:2 [ "titulo" => "Revisión" "idiomaDefecto" => true ] "idiomaDefecto" => "es" ] "PDF" => "https://static.elsevier.es/multimedia/00142565/0000022400000003/v1_202403090624/S0014256524000262/v1_202403090624/es/main.pdf?idApp=WRCEE&text.app=https://revclinesp.es/" "EPUB" => "https://multimedia.elsevier.es/PublicationsMultimediaV1/item/epub/S0014256524000262?idApp=WRCEE" ]
año/Mes | Html | Total | |
---|---|---|---|
2024 Septiembre | 2 | 2 | 4 |
2024 Agosto | 2 | 2 | 4 |
2024 Mayo | 1 | 0 | 1 |
2024 Abril | 2 | 0 | 2 |
2024 Marzo | 19 | 18 | 37 |