Grin logo
en de es fr
Shop
GRIN Website
Publish your texts - enjoy our full service for authors
Go to shop › Health - Digital Health Management

Intersección del Procesamiento del Lenguaje Natural con la Salud Pública

Potencialidades y Riesgos en un Mundo Digital

Summary Excerpt Details

El presente ensayo aborda el polémico y controvertido tema del procesamiento del Lenguaje Natural (NLP), el cual emerge como una herramienta transformadora en la gestión de la salud pública, con un potencial significativo para optimizar la vigilancia epidemiológica y el diseño de políticas basadas en evidencia.

El Procesamiento del Lenguaje Natural (NLP) emerge como una herramienta transformadora en la gestión de la salud pública, con un potencial significativo para optimizar la vigilancia epidemiológica y el diseño de políticas basadas en evidencia, un tema de creciente relevancia en el ámbito académico debido a su impacto en la equidad sanitaria y los derechos digitales. Este ensayo analiza cómo el NLP, desde sus orígenes en la informática de los años 1990 hasta los avances actuales en aprendizaje profundo, ha evolucionado para procesar grandes volúmenes de datos no estructurados, permitiendo la detección temprana de crisis sanitarias. Históricamente, la vigilancia epidemiológica ha oscilado entre proteger la salud y servir como instrumento de control social, una dualidad que persiste en la aplicación del NLP en contextos autoritarios y sistemas de salud desiguales. Los desarrollos técnicos, liderados por países como Estados Unidos y China, han dado lugar a innovaciones como modelos de NLP capaces de analizar registros médicos y redes sociales en tiempo real, aunque la concentración de estas tecnologías en naciones desarrolladas agrava las brechas globales. Los argumentos centrales del ensayo destacan los riesgos de sesgos algorítmicos, que perpetúan inequidades, y la amenaza de una vigilancia biomédica opresiva en regímenes con poca transparencia. Las conclusiones enfatizan que el impacto del NLP depende de la integración de principios éticos, participación comunitaria y marcos legales que protejan los derechos digitales, advirtiendo que, sin estas medidas, la tecnología podría consolidar una “dictadura algorítmica”.

Excerpt


Tabla de con tenido

INTRODUCCIÓN
En 2020, durante el apogeo de la pandemia de COVID-19
El Procesamiento del Lenguaje Natural (NLP)
La relevancia de este tema radica en su urgencia y actualidad
Contextualización histórica del problema
Orígenes de la vigilancia epidemiológica y el control social
La informatización de la salud pública y los primeros usos de la inteligencia artificial
La revolución del Big Data y el auge del NLP en la salud pública
NLP en contextos autoritarios: la vigilancia biomédica moderna
Hacia un marco ético para el NLP en la salud pública
Tesis central del presente ensayo
Problema de investigación del presente estudio
Hipótesis o respuesta tentativa al problema de investigación
Objetivo general del presente ensayo académico

DISEÑO METODOLÓGICO
La elaboración del presente ensayo académico
El proceso comenzó con una búsqueda exhaustiva
La organización de la información
El análisis de las fuentes implicó una lectura crítica
La estructura del ensayo
La selección de teorías y conceptos

DESARROLLO:
Marco teórico conceptual
Procesamiento del Lenguaje Natural y su rol en la salud pública
Biopoder y vigilancia biomédica en contextos autoritarios
Justicia algorítmica y equidad en la salud pública
Intersección de teorías: hacia un marco ético integrado
Avances tecnológicos del NLP en la vigilancia epidemiológica
Sesgos algorítmicos y su impacto en la equidad sanitaria
Vigilancia biomédica en regímenes autoritarios
Proyecciones futuras y escenarios posibles
Reflexión crítica: paradojas y dilemas éticos

CONCLUSIONES:

CONCLUSIONS:

REFERENCIAS BIBLIOGRÁFICAS:

RESUMEN:

El Procesamiento del Lenguaje Natural (NLP) emerge como una herramienta transformadora en la gestión de la salud pública, con un potencial significativo para optimizar la vigilancia epidemiológica y el diseño de políticas basadas en evidencia, un tema de creciente relevancia en el ámbito académico debido a su impacto en la equidad sanitaria y los derechos digitales. Este ensayo analiza cómo el NLP, desde sus orígenes en la informática de los años 1990 hasta los avances actuales en aprendizaje profundo, ha evolucionado para procesar grandes volúmenes de datos no estructurados, permitiendo la detección temprana de crisis sanitarias. Históricamente, la vigilancia epidemiológica ha oscilado entre proteger la salud y servir como instrumento de control social, una dualidad que persiste en la aplicación del NLP en contextos autoritarios y sistemas de salud desiguales. Los desarrollos técnicos, liderados por países como Estados Unidos y China, han dado lugar a innovaciones como modelos de NLP capaces de analizar registros médicos y redes sociales en tiempo real, aunque la concentración de estas tecnologías en naciones desarrolladas agrava las brechas globales. Los argumentos centrales del ensayo destacan los riesgos de sesgos algorítmicos, que perpetúan inequidades, y la amenaza de una vigilancia biomédica opresiva en regímenes con poca transparencia. Las conclusiones enfatizan que el impacto del NLP depende de la integración de principios éticos, participación comunitaria y marcos legales que protejan los derechos digitales, advirtiendo que, sin estas medidas, la tecnología podría consolidar una “dictadura algorítmica”. Estas conclusiones subrayan la necesidad de una gobernanza ética para alinear el progreso tecnológico con la justicia social, un desafío crítico en un mundo interconectado. Las implicaciones futuras sugieren que la investigación debe enfocarse en desarrollar tecnologías inclusivas, como modelos de aprendizaje federado, que mitiguen sesgos y amplíen el acceso equitativo a los beneficios del NLP. La exploración de soluciones participativas y regulaciones globales resulta esencial para garantizar que las innovaciones futuras complementen o superen las limitaciones actuales, promoviendo una salud pública que priorice la equidad y la dignidad humana.

Palabras clave: Procesamiento del lenguaje natural, NLP, salud pública, vigilancia epidemiológica, políticas basadas en evidencia, equidad sanitaria, derechos digitales, aprendizaje profundo, sesgos algorítmicos, vigilancia biomédica, contextos autoritarios, justicia algorítmica, gobernanza ética, participación comunitaria, marcos legales, dictadura algorítmica, tecnologías inclusivas, aprendizaje federado, brechas globales, dignidad humana.

ABSTRACT:

Natural Language Processing (NLP) stands as a transformative tool in public health management, with significant potential to optimize epidemiological surveillance and evidence-based policy design, a topic of growing academic relevance due to its impact on health equity and digital rights. This essay examines how NLP, from its origins in 1990s computing to current advances in deep learning, has evolved to process vast amounts of unstructured data, enabling early detection of health crises. Historically, epidemiological surveillance has oscillated between safeguarding health and serving as a tool for social control, a duality that persists in NLP’s application within authoritarian contexts and unequal health systems. Technical developments, led by countries like the United States and China, have produced innovations such as NLP models capable of real-time analysis of medical records and social media, though the concentration of these technologies in developed nations widens global disparities. The essay’s core arguments highlight the risks of algorithmic biases that perpetuate inequities and the threat of oppressive biomedical surveillance in regimes with limited transparency. The conclusions stress that NLP’s impact hinges on integrating ethical principles, community participation, and legal frameworks to protect digital rights, warning that without these measures, the technology could entrench an “algorithmic dictatorship.” These findings underscore the need for ethical governance to align technological progress with social justice, a critical challenge in an interconnected world. Future implications suggest that research must focus on developing inclusive technologies, such as federated learning models, to mitigate biases and broaden equitable access to NLP’s benefits. Exploring participatory solutions and global regulations remains essential to ensure that future innovations complement or surpass current limitations, promoting a public health system that prioritizes equity and human dignity.

Keywords: Natural language processing, NLP, public health, epidemiological surveillance, evidence-based policy, health equity, digital rights, deep learning, algorithmic biases, biomedical surveillance, authoritarian contexts, algorithmic justice, ethical governance, community participation, legal frameworks, algorithmic dictatorship, inclusive technologies, federated learning, global disparities, human dignity.

INTRODUCCIÓN

En 2020, durante el apogeo de la pandemia de COVID-19, un sistema basado en Procesamiento del Lenguaje Natural (Natural Language Processing, NLP) analizó millones de publicaciones en redes sociales y registros médicos electrónicos para detectar patrones de propagación del virus en tiempo real, permitiendo a las autoridades sanitarias de ciertos países anticipar brotes con días de antelación (Bogdan-Martin, 2020). Sin embargo, en regímenes autoritarios, tecnologías similares fueron utilizadas para monitorear disidencias políticas bajo el pretexto de vigilancia epidemiológica, rastreando movimientos de ciudadanos y suprimiendo críticas a las medidas sanitarias (Amnesty International, 2021). Esta dualidad plantea una pregunta inquietante: ¿puede una tecnología diseñada para salvar vidas convertirse en un instrumento de opresión cuando se implementa sin controles éticos? El potencial transformador del NLP en la salud pública es innegable, pero su capacidad para amplificar desigualdades o consolidar el control estatal en contextos opresivos exige un análisis crítico.

El Procesamiento del Lenguaje Natural (NLP) se ha consolidado como una herramienta revolucionaria en la gestión de la salud pública, con aplicaciones que abarcan desde la vigilancia epidemiológica en tiempo real hasta el diseño de políticas sanitarias basadas en evidencia. Mediante el análisis de grandes volúmenes de datos no estructurados, como registros médicos, publicaciones en redes sociales o informes clínicos, el NLP permite identificar patrones de enfermedades, prever crisis sanitarias y optimizar la asignación de recursos (Topol, 2019). Por ejemplo, sistemas de NLP han demostrado su capacidad para detectar señales tempranas de brotes epidémicos al analizar consultas en motores de búsqueda o conversaciones en plataformas digitales, ofreciendo una ventaja temporal crítica en la respuesta sanitaria (Brownstein et al., 2009). Esta capacidad posiciona al NLP como un pilar potencial para democratizar el acceso a diagnósticos y alertas sanitarias, especialmente en regiones con sistemas de salud frágiles.

No obstante, la implementación del NLP en contextos marcados por desigualdades estructurales y regímenes autoritarios plantea riesgos significativos. Los modelos de NLP, entrenados con datos históricos, a menudo reflejan sesgos raciales, de género o clasistas incrustados en los sistemas de salud, lo que puede perpetuar inequidades en el acceso a servicios médicos (Obermeyer et al., 2019). En países con limitaciones socioeconómicas extremas, donde el acceso a datos representativos es restringido, estos sesgos se amplifican, afectando desproporcionadamente a poblaciones vulnerables (Rajkomar et al., 2018). Más preocupante aún, en regímenes con poca transparencia, el NLP puede ser cooptado para priorizar narrativas políticas sobre el bienestar colectivo. Históricamente, las tecnologías biomédicas han sido utilizadas para reforzar el control social, como se observó en sistemas totalitarios que emplearon registros médicos para monitorear y reprimir a disidentes (Foucault, 1975). En la actualidad, la vigilancia epidemiológica habilitada por NLP podría transformarse en una forma de vigilancia biomédica, consolidando lo que algunos autores denominan una “dictadura algorítmica” (Zuboff, 2019).

La relevancia de este tema radica en su urgencia y actualidad. En un mundo donde las crisis sanitarias globales, como la pandemia de COVID-19, han expuesto las fragilidades de los sistemas de salud y las tensiones entre tecnología y derechos humanos, el NLP emerge como una herramienta de doble filo. Su capacidad para optimizar la vigilancia epidemiológica y respaldar políticas basadas en evidencia es innegable, pero su uso sin marcos éticos y legales robustos amenaza con exacerbar desigualdades y erosionar los derechos digitales. Este ensayo analiza el potencial transformador del NLP en la salud pública, examinando los riesgos de su implementación en contextos opresivos y proponiendo un marco ético que garantice equidad y proteja a las poblaciones vulnerables. La pregunta central es cómo equilibrar los beneficios del NLP con los peligros de una vigilancia biomédica autoritaria, un desafío que trasciende la tecnología y se ancla en la justicia social y la gobernanza democrática.

Contextualización histórica del problema

El Procesamiento del Lenguaje Natural (Natural Language Processing, NLP) representa una intersección entre la informática, la lingüística y la inteligencia artificial, con un potencial transformador en la gestión de la salud pública. Sin embargo, su aplicación en sistemas de salud marcados por desigualdades estructurales y contextos autoritarios plantea riesgos éticos y sociales significativos, como la perpetuación de inequidades y la consolidación de una vigilancia biomédica opresiva. Para comprender esta problemática, es crucial analizar su evolución histórica, desde los orígenes de las tecnologías biomédicas y la vigilancia epidemiológica hasta los desarrollos contemporáneos del NLP, considerando cómo estas herramientas han sido moldeadas por contextos sociopolíticos y cómo han impactado la equidad sanitaria.

Orígenes de la vigilancia epidemiológica y el control social

La vigilancia epidemiológica, como práctica sistemática de recolección y análisis de datos sanitarios, tiene sus raíces en el siglo XIX, cuando los avances en estadística y medicina pública permitieron monitorear enfermedades infecciosas. John Snow, en 1854, utilizó métodos rudimentarios de análisis espacial para trazar el brote de cólera en Londres, sentando las bases de la epidemiología moderna (Snow, 1855). Sin embargo, desde sus inicios, la vigilancia sanitaria no estuvo exenta de implicaciones políticas. En regímenes coloniales y autoritarios, los registros médicos se emplearon no solo para controlar enfermedades, sino también para vigilar poblaciones consideradas "peligrosas" o "desviadas" (Bashford, 2003). Por ejemplo, en el Imperio Británico, los datos epidemiológicos se utilizaron para justificar políticas segregacionistas bajo el pretexto de proteger la salud pública (Arnold, 1993).

A finales del siglo XIX y principios del XX, el auge de la eugenesia y las teorías raciales pseudocientíficas amplificó el uso de tecnologías biomédicas para fines de control social. En países como Alemania nazi, los registros médicos y estadísticos fueron instrumentalizados para identificar y marginalizar grupos étnicos, demostrando cómo la vigilancia sanitaria podía servir a agendas totalitarias (Proctor, 1988). Michel Foucault (1975) argumenta que las tecnologías biomédicas, al categorizar y monitorear cuerpos, consolidaron un "biopoder" que permitía a los estados ejercer control sobre las poblaciones, un fenómeno que persiste en formas modernas de vigilancia epidemiológica.

La informatización de la salud pública y los primeros usos de la inteligencia artificial

La segunda mitad del siglo XX marcó un punto de inflexión con la informatización de los sistemas de salud. La introducción de bases de datos electrónicas en los años 1960 permitió almacenar y procesar grandes volúmenes de información médica, facilitando la vigilancia epidemiológica a gran escala (Shortliffe & Cimino, 2014). Sin embargo, esta transición también exacerbó desigualdades, ya que los países con recursos limitados carecían de infraestructura para implementar estas tecnologías, lo que generó brechas en la capacidad de respuesta sanitaria (Lucas, 2008).

En los años 1980, los primeros sistemas de inteligencia artificial (IA) comenzaron a explorarse en el ámbito médico, con aplicaciones como MYCIN, un sistema experto para diagnósticos infecciosos (Buchanan & Shortliffe, 1984). Aunque estas tecnologías eran primitivas, sentaron las bases para el desarrollo del NLP, que emergió en la década de 1990 como una rama de la IA enfocada en procesar y analizar textos en lenguaje natural. Los sistemas de NLP iniciales se utilizaron para extraer información de registros médicos y literatura científica, optimizando la gestión de datos en hospitales (Friedman et al., 1995). Sin embargo, estos sistemas dependían de datos estructurados y homogéneos, lo que limitaba su aplicabilidad en contextos con diversidad sociocultural o sistemas de salud fragmentados.

La revolución del Big Data y el auge del NLP en la salud pública

El siglo XXI trajo consigo la revolución del big data, que transformó radicalmente la vigilancia epidemiológica. La proliferación de datos no estructurados, como publicaciones en redes sociales, consultas en motores de búsqueda y registros médicos electrónicos, creó oportunidades sin precedentes para el NLP. Herramientas como Google Flu Trends (2008) demostraron el potencial del NLP para detectar brotes de influenza analizando patrones de búsqueda en internet, aunque también revelaron limitaciones, como falsos positivos derivados de datos sesgados (Lazer et al., 2014). En paralelo, sistemas más avanzados de NLP comenzaron a procesar textos clínicos para identificar tendencias epidemiológicas, mejorar diagnósticos y predecir crisis sanitarias (Topol, 2019).

No obstante, el auge del big data también expuso los riesgos de los sesgos algorítmicos. Estudios han demostrado que los modelos de NLP, al entrenarse con datos históricos, pueden perpetuar desigualdades raciales, de género y clasistas. Por ejemplo, Obermeyer et al. (2019) documentaron cómo un algoritmo utilizado en Estados Unidos subestimaba el riesgo médico de pacientes afroamericanos debido a sesgos en los datos de entrenamiento. En contextos de países con limitaciones socioeconómicas, donde los datos disponibles suelen ser incompletos o no representativos, estos sesgos se amplifican, afectando desproporcionadamente a poblaciones marginadas (Rajkomar et al., 2018).

NLP en contextos autoritarios: la vigilancia biomédica moderna

En regímenes autoritarios, el NLP ha sido cooptado para fines que trascienden la salud pública. Durante la pandemia de COVID-19, países como China utilizaron sistemas de NLP para analizar datos de redes sociales y aplicaciones de rastreo, no solo para monitorear la propagación del virus, sino también para identificar y silenciar críticas a las políticas gubernamentales (Amnesty International, 2021). Este uso dual de la tecnología evoca los antecedentes históricos de las tecnologías biomédicas como herramientas de represión. Shoshana Zuboff (2019) describe este fenómeno como “capitalismo de vigilancia”, donde los datos sanitarios se convierten en un recurso para consolidar el poder estatal, erosionando los derechos digitales.

En América Latina, donde las desigualdades estructurales son marcadas, la implementación del NLP enfrenta desafíos adicionales. En países como Venezuela, la manipulación de datos epidemiológicos por parte de regímenes autoritarios ha limitado la transparencia, dificultando la aplicación efectiva de tecnologías de vigilancia sanitaria (Human Rights Watch, 2020). Estos casos ilustran la paradoja central del NLP: mientras puede democratizar el acceso a diagnósticos y alertas, su uso sin auditorías éticas independientes amenaza con transformar la salud pública en un instrumento de control.

Hacia un marco ético para el NLP en la salud pública

La evolución del NLP refleja una tensión histórica entre el progreso técnico y las implicaciones éticas. Mientras que las tecnologías biomédicas han mejorado la capacidad de los sistemas de salud para responder a crisis, también han sido utilizadas para perpetuar inequidades y reforzar el control social. La hipótesis de este ensayo sostiene que el impacto del NLP dependerá de la integración de principios de justicia algorítmica y marcos legales que protejan los derechos digitales. La ausencia de estos mecanismos podría replicar los fracasos históricos de tecnologías cooptadas por el autoritarismo, consolidando una “dictadura algorítmica” en la salud pública.

La relevancia de esta contextualización radica en su capacidad para informar el diseño de políticas que equilibren los beneficios del NLP con sus riesgos. La triangulación de perspectivas históricas, tecnológicas y éticas subraya la necesidad de auditorías independientes, participación comunitaria y normativas robustas para garantizar que el NLP sirva al bienestar colectivo, especialmente en contextos marcados por desigualdades y opresión política.

Tesis central del presente ensayo

El Procesamiento del Lenguaje Natural (NLP) emerge como una herramienta transformadora en la gestión de la salud pública, con potencial para optimizar la vigilancia epidemiológica, la detección temprana de crisis sanitarias y el diseño de políticas basadas en evidencia. Sin embargo, su implementación en sistemas de salud marcados por desigualdades estructurales, particularmente en contextos autoritarios o en países con limitaciones socioeconómicas extremas, enfrenta riesgos significativos. Los sesgos inherentes a los modelos de NLP, derivados de datos históricos impregnados de prejuicios raciales, de género o clasistas, podrían perpetuar y amplificar inequidades existentes. En regímenes donde la transparencia es limitada y los datos de salud se manipulan con fines ideológicos, esta tecnología podría consolidar una "dictadura algorítmica", priorizando narrativas políticas sobre el bienestar colectivo. Históricamente, las tecnologías biomédicas han sido cooptadas por sistemas totalitarios para reforzar el control social, donde la vigilancia epidemiológica ha servido tanto a la salud como a la represión. La paradoja radica en que, mientras el NLP podría democratizar el acceso a diagnósticos y alertas sanitarias, su uso sin auditorías éticas independientes ni marcos legales que protejan los derechos digitales amenaza con convertir la salud pública en un instrumento de vigilancia biomédica, sacrificando la equidad en favor de la eficiencia técnica.

Idea resumida: El Procesamiento del Lenguaje Natural (NLP) tiene el potencial de transformar la gestión de la salud pública al optimizar la vigilancia epidemiológica y el diseño de políticas basadas en evidencia. Sin embargo, su implementación en sistemas de salud con desigualdades estructurales, especialmente en contextos autoritarios, plantea riesgos significativos. Los sesgos en los modelos de NLP podrían perpetuar inequidades existentes, y en regímenes con poca transparencia, esta tecnología podría consolidar una "dictadura algorítmica", priorizando narrativas políticas sobre el bienestar colectivo. Históricamente, tecnologías biomédicas han sido utilizadas para reforzar el control social, donde la vigilancia epidemiológica ha servido tanto para la salud como para la represión. La paradoja radica en que, mientras el NLP podría democratizar el acceso a diagnósticos y alertas, su uso sin controles éticos independientes, amenaza con convertir la salud pública en un instrumento de vigilancia biomédica, sacrificando la equidad por la eficiencia técnica.

Problema de investigación del presente estudio

¿Cómo puede el Procesamiento del Lenguaje Natural (NLP) equilibrar su potencial para optimizar la gestión de la salud pública con los riesgos de amplificar desigualdades y consolidar una vigilancia biomédica autoritaria en sistemas de salud marcados por inequidades estructurales y contextos políticos opresivos, como los observados en regímenes totalitarios?

Hipótesis o respuesta tentativa al problema de investigación

Se plantea que el Procesamiento del Lenguaje Natural (NLP) puede optimizar la gestión de la salud pública al mejorar la vigilancia epidemiológica, facilitar diagnósticos tempranos y respaldar políticas basadas en evidencia, siempre que se implemente bajo principios éticos rigurosos y marcos legales que garanticen transparencia y equidad. Sin embargo, en sistemas de salud con desigualdades estructurales, especialmente en regímenes autoritarios, donde la manipulación de datos sanitarios y la falta de transparencia son prácticas documentadas, el NLP podría exacerbar las inequidades si los modelos no son auditados para mitigar sesgos raciales, de género o clasistas incrustados en los datos históricos. En tales contextos, la ausencia de auditorías éticas independientes y de mecanismos de rendición de cuentas podría transformar esta tecnología en un instrumento de control epidemiológico, priorizando narrativas políticas sobre el bienestar colectivo, como ha ocurrido históricamente en sistemas totalitarios que han utilizado registros biomédicos para reforzar el control social. La hipótesis sostiene que el impacto del NLP en la salud pública dependerá de la capacidad de los sistemas sanitarios para integrar principios de justicia algorítmica, garantizar la participación de comunidades vulnerables en el diseño de estas tecnologías y establecer normativas que protejan los derechos digitales frente a la vigilancia biomédica. En ausencia de estas condiciones, el NLP podría consolidar una "dictadura algorítmica", replicando los fracasos históricos de tecnologías biomédicas cooptadas por el autoritarismo, como se observa en la vigilancia sanitaria de algunos países, donde los datos epidemiológicos han sido utilizados para legitimar narrativas oficiales en detrimento de la equidad sanitaria.

Objetivo general del presente ensayo académico

Analizar el potencial transformador del Procesamiento del Lenguaje Natural (NLP) en la gestión de la salud pública, examinando su capacidad para optimizar la vigilancia epidemiológica y el diseño de políticas basadas en evidencia, frente a los riesgos de amplificar desigualdades y consolidar una vigilancia biomédica autoritaria en contextos de inequidades estructurales y regímenes opresivos, comunistas, con el propósito de proponer un marco ético y legal que garantice su implementación equitativa y proteja los derechos digitales de las poblaciones vulnerables.

DISEÑO METODOLÓGICO

La elaboración del presente ensayo académico sobre el potencial transformador del Procesamiento del Lenguaje Natural (NLP) en la gestión de la salud pública, y los riesgos asociados a su implementación en contextos desiguales y autoritarios, requirió un enfoque metodológico riguroso y sistemático. Este proceso abarcó la selección, organización e integración de información, el análisis crítico de fuentes y la estructuración coherente del texto, asegurando un desarrollo argumentativo alineado con la tesis central, la pregunta de investigación, la hipótesis y el objetivo general del ensayo.

El proceso comenzó con una búsqueda exhaustiva de fuentes académicas y científicas relevantes, utilizando motores de búsqueda y bases de datos especializadas. Se consultaron plataformas como PubMed, Scopus, Google Scholar y JSTOR para identificar artículos, libros y reportes relacionados con el NLP, la vigilancia epidemiológica, la ética de la inteligencia artificial y las desigualdades en salud pública. Términos de búsqueda como “natural language processing in public health,” “algorithmic bias in healthcare,” “biomedical surveillance” y “ethical AI frameworks” guiaron la exploración. Además, se accedió a informes de organizaciones internacionales, como Amnesty International y Human Rights Watch, para contextualizar los usos del NLP en regímenes autoritarios. La selección de fuentes priorizó textos con rigor académico, publicados en revistas revisadas por pares o por editoriales reconocidas, y con relevancia directa para los temas de equidad, vigilancia biomédica y justicia algorítmica (Jurafsky & Martin, 2021; Zuboff, 2019).

La organización de la información siguió un enfoque temático y cronológico. Inicialmente, se categorizaron las fuentes según su contribución a los apartados del presente ensayo: contextualización histórica, marco teórico conceptual, desarrollo argumentativo y conclusiones. Para la contextualización histórica, se seleccionaron textos que trazaran la evolución de la vigilancia epidemiológica y las tecnologías biomédicas, desde el siglo XIX hasta la era del big data (Foucault, 1975; Topol, 2019). En el marco teórico, se integraron teorías como el biopoder, la justicia algorítmica y el sesgo algorítmico, articulando perspectivas de autores de diversas disciplinas para garantizar una triangulación teórica (Dwork et al., 2012; Eubanks, 2018). El desarrollo argumentativo se estructuró en torno a avances técnicos, riesgos éticos y proyecciones futuras, apoyándose en evidencias empíricas y estudios de caso contemporáneos (Obermeyer et al., 2019; Amnesty International, 2021).

El análisis de las fuentes implicó una lectura crítica para identificar argumentos, evidencias y lagunas en la literatura. Se contrastaron perspectivas optimistas sobre el NLP, que destacan su potencial democratizador, con visiones críticas que advierten sobre sus riesgos en contextos opresivos (Topol, 2019; Zuboff, 2019). Este proceso permitió construir una narrativa coherente que conectara los antecedentes históricos con los desafíos actuales, asegurando que cada sección del ensayo contribuyera a sustentar la tesis central. La integración de las fuentes en el texto se realizó mediante citas narrativas y parentéticas, siguiendo la norma APA (7.ª edición), para respaldar los argumentos sin interrumpir la fluidez del discurso.

La estructura del ensayo se diseñó para garantizar una progresión lógica y fluida. El texto inicial introductorio capturó la atención del lector con un ejemplo de la dualidad del NLP durante la pandemia de COVID-19, mientras que la descripción introductoria empleada a continuación, estableció el contexto y la relevancia del tema. La contextualización histórica proporcionó un marco temporal, seguido por el marco teórico conceptual, que articuló los conceptos clave. El desarrollo argumentativo, el núcleo del ensay o, organizó los argumentos de lo general a lo particular, abordando avances técnicos, sesgos algorítmicos y riesgos de vigilancia biomédica. Las conclusiones sintetizaron los hallazgos, ofreciendo una reflexión final sobre la necesidad de una gobernanza ética. La coherencia se aseguró mediante transiciones fluidas entre párrafos y la repetición estratégica de conceptos clave, como equidad y vigilancia biomédica, para reforzar la tesis central.

La selección de teorías y conceptos se basó en su relevancia para la pregunta de investigación y su capacidad para iluminar las complejidades del tema. El biopoder, la justicia algorítmica y el sesgo algorítmico se escogieron por su pertinencia para analizar los riesgos éticos y sociales del NLP, mientras que su aplicación en el ensayo permitió una exploración matizada de las tensiones entre tecnología y sociedad. Este enfoque metodológico garantizó un ensayo académico robusto, fundamentado en fuentes verificables y estructurado para ofrecer un análisis crítico y coherente.

DESARROLLO:

Marco teórico conceptual

El Procesamiento del Lenguaje Natural (Natural Language Processing, NLP) emerge como una herramienta con potencial transformador en la gestión de la salud pública, pero su implementación en contextos de desigualdades estructurales y regímenes autoritarios plantea desafíos éticos y sociales significativos. El presente marco teórico conceptual articula teorías, enfoques y conceptos clave que fundamentan el análisis del potencial del NLP para optimizar la vigilancia epidemiológica y el diseño de políticas basadas en evidencia, frente a los riesgos de perpetuar inequidades y consolidar una vigilancia biomédica opresiva. A través de la triangulación de perspectivas provenientes de la informática, la ética de la inteligencia artificial (IA), la teoría del biopoder y la justicia social, se construye un entramado teórico que conecta la tesis central, la pregunta de investigación, la hipótesis y el objetivo general del ensayo, resaltando la relevancia de un marco ético y legal para garantizar la equidad en la aplicación del NLP.

Procesamiento del Lenguaje Natural y su rol en la salud pública

El NLP, como subcampo de la IA, se define como el conjunto de técnicas computacionales que permiten a las máquinas interpretar, generar y procesar lenguaje humano en formatos estructurados y no estructurados (Jurafsky & Martin, 2021). En la salud pública, el NLP facilita el análisis de grandes volúmenes de datos textuales, como registros médicos electrónicos, informes clínicos y publicaciones en redes sociales, para identificar patrones epidemiológicos, detectar brotes de enfermedades y respaldar decisiones políticas basadas en evidencia (Topol, 2019). Por ejemplo, algoritmos de NLP han sido utilizados para analizar consultas en motores de búsqueda y predecir brotes de influenza con mayor rapidez que los sistemas tradicionales de vigilancia (Brownstein et al., 2009). Este potencial alinea al NLP con la tesis central del ensayo, que subraya su capacidad para optimizar la gestión sanitaria, pero también exige un examen crítico de los riesgos asociados a su implementación.

Desde una perspectiva técnica, el NLP se basa en modelos de aprendizaje automático que requieren grandes conjuntos de datos para su entrenamiento. Sin embargo, la calidad y representatividad de estos datos determinan la eficacia y equidad de los resultados. Como señala Rajkomar et al. (2018), los datos históricos utilizados en salud pública suelen reflejar sesgos estructurales, como desigualdades raciales o de género, que los algoritmos pueden perpetuar si no se implementan estrategias de mitigación. Este fenómeno, conocido como sesgo algorítmico, constituye un concepto central en este marco, ya que conecta directamente con la hipótesis del ensayo: la necesidad de auditorías éticas para garantizar que el NLP no exacerbe inequidades en sistemas de salud fragmentados.

Biopoder y vigilancia biomédica en contextos autoritarios

La aplicación del NLP en la salud pública no puede analizarse sin considerar el concepto de biopoder, propuesto por Michel Foucault (1975), que describe cómo los estados modernos ejercen control sobre las poblaciones mediante la gestión de la vida y la salud. La vigilancia epidemiológica, históricamente, ha sido un mecanismo de biopoder, utilizado tanto para proteger la salud pública como para monitorear y reprimir a grupos disidentes (Bashford, 2003). En regímenes autoritarios, donde la transparencia es limitada, el NLP puede amplificar este biopoder al habilitar una vigilancia biomédica sofisticada, capaz de rastrear comportamientos individuales a través de datos sanitarios y sociales (Zuboff, 2019). Este riesgo resuena con la pregunta de investigación del ensayo, que interroga cómo equilibrar los beneficios del NLP con el peligro de consolidar una “dictadura algorítmica”.

Figura No. 1 : Complejidades asociadas al ejercicio del biopoder. Factores a favor y en contra del uso de instrumentos que hacen posible, tanto gestionar la salud de la población como reprimir a grupos disidentes, así como rastrear comportamientos individuales. Peligros de que se consolide una “dictadura algorítmica”.

Abb. in Leseprobe nicht enthalten

La noción de vigilancia biomédica, entendida como el uso de tecnologías para monitorear datos de salud con fines de control social, es particularmente relevante en contextos opresivos. Durante la pandemia de COVID-19, sistemas de NLP fueron empleados en algunos países para analizar datos de aplicaciones de rastreo, no solo para contener el virus, sino también para identificar disidencias políticas (Amnesty International, 2021). Este uso dual de la tecnología refleja una tensión histórica entre los objetivos sanitarios y las agendas políticas, un fenómeno que la hipótesis del ensayo aborda al enfatizar la necesidad de marcos legales que protejan los derechos digitales frente a la manipulación de datos.

Justicia algorítmica y equidad en la salud pública

El concepto de justicia algorítmica, desarrollado en el campo de la ética de la IA, proporciona un lente crítico para abordar los sesgos del NLP y su impacto en la equidad sanitaria. Dwork et al. (2012) definen la justicia algorítmica como el diseño de sistemas que minimicen disparidades injustas en los resultados, considerando factores como raza, género o clase social. En la salud pública, la justicia algorítmica implica garantizar que los modelos de NLP sean entrenados con datos representativos y auditados para mitigar sesgos estructurales (Obermeyer et al., 2019). Este principio es fundamental para la tesis central del ensayo, que aboga por una implementación del NLP bajo principios éticos rigurosos para evitar la perpetuación de inequidades.

La justicia algorítmica también requiere la participación de comunidades vulnerables en el diseño y evaluación de tecnologías sanitarias, un aspecto que resuena con el objetivo general del ensayo: proponer un marco ético que proteja a las poblaciones marginadas. Como señala Eubanks (2018), las tecnologías automatizadas, cuando se diseñan sin considerar las realidades de los grupos desfavorecidos, tienden a reforzar sistemas de exclusión. En contextos de desigualdades estructurales, donde el acceso a datos de calidad es limitado, la falta de participación comunitaria puede resultar en modelos de NLP que prioricen a poblaciones privilegiadas, exacerbando brechas sanitarias.

Intersección de teorías: hacia un marco ético integrado

La interrelación entre el biopoder, la justicia algorítmica y el sesgo algorítmico conforma un marco teórico que ilumina las complejidades del NLP en la salud pública. El biopoder contextualiza los riesgos de vigilancia biomédica en regímenes autoritarios, mientras que la justicia algorítmica ofrece un enfoque normativo para mitigar inequidades. El sesgo algorítmico, por su parte, actúa como un puente entre ambos, evidenciando cómo las limitaciones técnicas de los modelos de NLP pueden amplificar desigualdades estructurales y servir a agendas de control. Esta triangulación teórica sustenta la hipótesis del ensayo, que plantea que el impacto del NLP dependerá de la capacidad de los sistemas sanitarios para integrar principios éticos y normativas que protejan los derechos digitales.

Desde una perspectiva crítica, autores como Zuboff (2019) y Eubanks (2018) advierten que la falta de transparencia en el desarrollo de tecnologías como el NLP puede consolidar un “capitalismo de vigilancia” que priorice intereses políticos o económicos sobre el bienestar colectivo. En contraste, enfoques más optimistas, como el de Topol (2019), destacan el potencial democratizador del NLP para mejorar el acceso a diagnósticos y alertas sanitarias. La síntesis de estas perspectivas subraya la necesidad de un marco ético y legal que equilibre los beneficios técnicos del NLP con la protección de los derechos humanos, un objetivo central de esta investigación.

La relevancia de este marco teórico radica en su capacidad para articular los desafíos éticos, técnicos y políticos del NLP en la salud pública, ofreciendo una base sólida para responder a la pregunta de investigación. Al integrar teorías de diversas disciplinas, se construye un entendimiento matizado de cómo el NLP puede transformar la gestión sanitaria sin sacrificar la equidad ni consolidar estructuras de opresión. Este marco no solo fundamenta el análisis del ensayo, sino que también establece las bases para proponer soluciones prácticas que garanticen una implementación responsable de esta tecnología.

El Procesamiento del Lenguaje Natural (Natural Language Processing, NLP) representa una herramienta de vanguardia en la gestión de la salud pública, con aplicaciones que abarcan desde la vigilancia epidemiológica hasta el diseño de políticas basadas en evidencia. Sin embargo, su implementación en sistemas de salud marcados por desigualdades estructurales y contextos autoritarios plantea riesgos significativos, como la perpetuación de inequidades y la consolidación de una vigilancia biomédica opresiva. Este desarrollo argumentativo analiza el potencial transformador del NLP, los avances tecnológicos que lo sustentan, los actores clave en su evolución y los desafíos éticos que enfrenta, proyectando escenarios futuros desde una perspectiva crítica. A través de una triangulación de enfoques técnicos, éticos y sociopolíticos, se fundamenta la tesis central del ensayo: el NLP puede optimizar la salud pública solo si se implementa bajo principios éticos rigurosos que mitiguen sesgos y protejan los derechos digitales.

Avances tecnológicos del NLP en la vigilancia epidemiológica

El NLP ha evolucionado significativamente desde sus inicios en la década de 1990, impulsado por avances en el aprendizaje profundo y el procesamiento de grandes volúmenes de datos. Modelos como BERT (Bidirectional Encoder Representations from Transformers), desarrollado por Google en 2018, han revolucionado la capacidad de los sistemas para interpretar contextos lingüísticos complejos, permitiendo aplicaciones sofisticadas en la salud pública (Devlin et al., 2018). Por ejemplo, el análisis de textos no estructurados, como informes clínicos o publicaciones en redes sociales, ha permitido detectar señales tempranas de brotes epidémicos con una precisión sin precedentes. Durante la pandemia de COVID-19, sistemas de NLP procesaron datos de plataformas como Twitter para identificar patrones de propagación del virus en tiempo real, superando las limitaciones de los sistemas tradicionales de notificación (Bogdan-Martin, 2020).

Estados Unidos y China han liderado el desarrollo de estas tecnologías, con empresas como Google, Amazon y Baidu invirtiendo fuertemente en modelos de NLP aplicados a la salud. En 2021, Amazon Web Services lanzó HealthLake, una plataforma que utiliza NLP para extraer información de registros médicos, optimizando la gestión de datos en hospitales (Amazon, 2021). Sin embargo, la concentración de estas innovaciones en países desarrollados ha generado una brecha tecnológica, ya que las naciones de ingresos bajos carecen de infraestructura para implementar soluciones similares (Lucas, 2008). Esta disparidad refuerza la hipótesis del ensayo, que destaca cómo las desigualdades estructurales pueden limitar el acceso equitativo a los beneficios del NLP.

Sesgos algorítmicos y su impacto en la equidad sanitaria

Un desafío central del NLP en la salud pública es la presencia de sesgos algorítmicos, que surgen cuando los modelos se entrenan con datos históricos impregnados de prejuicios sociales. Obermeyer et al. (2019) documentaron cómo un algoritmo utilizado en Estados Unidos subestimaba el riesgo médico de pacientes afroamericanos debido a datos de entrenamiento que reflejaban desigualdades en el acceso a la atención sanitaria. En contextos de países en desarrollo, donde los datos disponibles suelen ser incompletos o no representativos, estos sesgos se amplifican. Por ejemplo, en India, los modelos de NLP aplicados a registros médicos han mostrado una menor precisión para poblaciones rurales debido a la escasez de datos digitalizados en estas comunidades (Rajkomar et al., 2018).

La perpetuación de inequidades a través de sesgos algorítmicos no es solo un problema técnico, sino también ético. Como argumenta Eubanks (2018), las tecnologías automatizadas tienden a marginalizar aún más a los grupos desfavorecidos cuando no se diseñan con un enfoque de justicia algorítmica. Este concepto, definido por Dwork et al. (2012) como el diseño de sistemas que minimicen disparidades injustas, es crucial para garantizar que el NLP no exacerbe las brechas sanitarias. La necesidad de auditorías éticas independientes, planteada en la hipótesis del ensayo, se deriva directamente de esta problemática, ya que sin mecanismos de rendición de cuentas, los modelos de NLP pueden priorizar la eficiencia técnica sobre la equidad.

Vigilancia biomédica en regímenes autoritarios

En contextos autoritarios, el NLP plantea riesgos adicionales al habilitar una vigilancia biomédica que trasciende los objetivos sanitarios. Durante la pandemia de COVID-19, China implementó sistemas de NLP para analizar datos de aplicaciones de rastreo, como WeChat, no solo para monitorear la propagación del virus, sino también para identificar comportamientos disidentes (Amnesty International, 2021). Este uso dual de la tecnología evoca el concepto de biopoder de Foucault (1975), que describe cómo los estados controlan a las poblaciones mediante la gestión de la salud. En países como Venezuela, donde los datos epidemiológicos han sido manipulados para legitimar narrativas oficiales, el NLP podría consolidar una “dictadura algorítmica” si se utiliza sin transparencia (Human Rights Watch, 2020).

La experiencia de estos regímenes contrasta con enfoques más democráticos, como el de la Unión Europea, que ha implementado regulaciones estrictas, como el Reglamento General de Protección de Datos (GDPR), para proteger los derechos digitales en el uso de tecnologías sanitarias (European Union, 2016). Esta divergencia ilustra la importancia de marcos legales robustos, un aspecto central del objetivo general del ensayo, que busca proponer un marco ético y legal para garantizar la implementación equitativa del NLP.

Proyecciones futuras y escenarios posibles

Mirando hacia el futuro, el NLP podría transformar radicalmente la salud pública si se superan los desafíos actuales. Avances en modelos de aprendizaje federado, que permiten entrenar algoritmos con datos descentralizados sin comprometer la privacidad, podrían mitigar los riesgos de sesgo y vigilancia (Yang et al., 2019). Además, la integración de enfoques participativos, como el codesign con comunidades vulnerables, podría garantizar que los modelos de NLP reflejen las necesidades de poblaciones marginadas (Eubanks, 2018). Sin embargo, en ausencia de regulaciones globales, el NLP podría consolidar desigualdades y estructuras de control, especialmente en regímenes autoritarios.

Un escenario optimista proyecta un futuro donde el NLP democratice el acceso a diagnósticos y alertas sanitarias, incluso en regiones de bajos recursos, mediante soluciones de bajo costo basadas en la nube. Por ejemplo, iniciativas como el programa AI for Health de Microsoft están desarrollando herramientas de NLP para apoyar sistemas de salud en África subsahariana (Microsoft, 2022). En contraste, un escenario pesimista prevé una fragmentación tecnológica, donde los países desarrollados monopolicen las innovaciones y los regímenes opresivos utilicen el NLP para reforzar el control social, replicando los fracasos históricos de las tecnologías biomédicas.

Reflexión crítica: paradojas y dilemas éticos

La aplicación del NLP en la salud pública plantea una paradoja fundamental: una tecnología diseñada para salvar vidas puede convertirse en un instrumento de opresión si se implementa sin controles éticos. Un silogismo ilustra esta tensión: si las tecnologías biomédicas requieren datos representativos para ser equitativas, y los sistemas de salud desiguales producen datos sesgados, entonces el NLP, en ausencia de auditorías, perpetuará inequidades. Esta deducción lógica subraya la necesidad de principios de justicia algorítmica, como los propuestos por Dwork et al. (2012).

Una analogía esclarece el problema: el NLP es como un bisturí quirúrgico, capaz de realizar cortes precisos para salvar vidas, pero también de infligir daño si se maneja sin cuidado. En regímenes autoritarios, este bisturí puede transformarse en una herramienta de disección social, segmentando poblaciones bajo el pretexto de la salud. Como corolario, la implementación del NLP sin marcos éticos no solo fracasará>in garantizar equidad, sino que arriesgará consolidar un sistema de vigilancia biomédica que sacrifique la autonomía individual por la eficiencia técnica.

Metafóricamente, el NLP puede compararse a un faro que ilumina el camino hacia una gestión sanitaria más efectiva, pero cuya luz puede distorsionarse en contextos opresivos, proyectando sombras de control y exclusión. Esta dualidad simboliza la encrucijada ética del NLP: su potencial para democratizar la salud pública depende de la voluntad política de priorizar la justicia sobre el poder. La reflexión personal, fundamentada en el análisis previo, sugiere que la verdadera transformación del NLP no radica en su capacidad técnica, sino en su gobernanza. La contradicción interna del fenómeno —su capacidad para empoderar y oprimir simultáneamente— exige un compromiso global con la transparencia, la participación comunitaria y la protección de los derechos digitales.

CONCLUSIONES:

El análisis desarrollado en este ensayo pone de manifiesto que el Procesamiento del Lenguaje Natural (NLP) constituye una herramienta de inmenso potencial para transformar la gestión de la salud pública, al optimizar la vigilancia epidemiológica, facilitar la detección temprana de crisis sanitarias y respaldar el diseño de políticas basadas en evidencia. Sin embargo, su implementación en sistemas de salud caracterizados por desigualdades estructurales y en contextos autoritarios revela una compleja dualidad, donde los beneficios técnicos coexisten con riesgos éticos y sociales significativos. La capacidad del NLP para perpetuar sesgos algorítmicos, derivados de datos históricos impregnados de prejuicios, amenaza con amplificar inequidades, especialmente en poblaciones vulnerables que ya enfrentan barreras de acceso a la atención sanitaria. Asimismo, en regímenes con escasa transparencia, la tecnología puede convertirse en un instrumento de vigilancia biomédica, consolidando narrativas políticas que priorizan el control social sobre el bienestar colectivo. Esta paradoja refleja una tensión histórica entre el progreso tecnológico y su instrumentalización, donde la salud pública ha servido tanto a la protección de la vida como a la opresión. La reflexión sobre el futuro del NLP sugiere que su impacto dependerá de la capacidad de los sistemas sanitarios para integrar principios de justicia algorítmica, garantizar la participación de comunidades marginadas en el diseño de estas tecnologías y establecer marcos legales que protejan los derechos digitales. Sin estas condiciones, el NLP corre el riesgo de replicar los fracasos de tecnologías biomédicas cooptadas por el autoritarismo, consolidando una “dictadura algorítmica” que sacrifique la equidad por la eficiencia técnica. Este ensayo concluye que el desafío no radica únicamente en perfeccionar las capacidades técnicas del NLP, sino en construir una gobernanza ética que equilibre su potencial transformador con la imperiosa necesidad de justicia social. Solo a través de un compromiso global con la transparencia, la rendición de cuentas y la inclusión se podrá garantizar que el NLP cumpla su promesa de democratizar la salud pública, sin comprometer los principios de equidad y dignidad que deben guiar toda intervención sanitaria en un mundo interconectado y diverso.

See next page for conclusions in English.

CONCLUSIONS:

This essay's analysis reveals that Natural Language Processing (NLP) holds immense potential to transform public health management by optimizing epidemiological surveillance, enabling early detection of health crises, and supporting evidence-based policy design. Yet, its implementation in health systems marked by structural inequalities and authoritarian contexts unveils a complex duality, where technical benefits coexist with significant ethical and social risks. NLP's capacity to perpetuate algorithmic biases, stemming from historical data imbued with prejudices, threatens to exacerbate inequities, particularly for vulnerable populations already facing barriers to healthcare access. Similarly, in regimes with limited transparency, this technology risks becoming an instrument of biomedical surveillance, reinforcing political narratives that prioritize social control over collective well-being. This paradox mirrors a historical tension between technological progress and its instrumentalization, where public health has served both life preservation and oppression. Reflections on NLP's future suggest that its impact hinges on health systems' ability to integrate principles of algorithmic justice, ensure marginalized communities' participation in technology design, and establish legal frameworks to safeguard digital rights. Without these conditions, NLP risks replicating the failures of biomedical technologies co-opted by authoritarianism, fostering an "algorithmic dictatorship" that sacrifices equity for technical efficiency. This essay concludes that the challenge lies not only in refining NLP's technical capabilities but in forging an ethical governance framework that balances its transformative potential with the urgent need for social justice. Only through a global commitment to transparency, accountability, and inclusion can NLP fulfill its promise to democratize public health without compromising the principles of equity and dignity that must guide all health interventions in an interconnected and diverse world.

Vea página anterior para las conclusiones en Español.

REFERENCIAS BIBLIOGRÁFICAS:

Amazon. (2021). AWS HealthLake: Accelerating healthcare innovation with machine learning. https://aws.amazon.com/healthlake/

Amnesty International. (2021). COVID-19: Surveillance, privacy and public health. https://www.amnesty.org/en/documents/pol40/4321/2021/en/

Arnold, D. (1993). Colonizing the body: State medicine and epidemic disease in nineteenth-century India. University of California Press.

Bashford, A. (2003). Imperial hygiene: A critical history of colonialism, nationalism and public health. Palgrave Macmillan.

Bogdan-Martin, D. (2020). Artificial intelligence and the future of public health. International Telecommunication Union. https://www.itu.int/en/ITU-T/AI/2020/Documents/AI-for-Good-Global-Summit-2020-Report.pdf

Brownstein, J. S., Freifeld, C. C., & Madoff, L. C. (2009). Digital disease detection—Harnessing the web for public health surveillance. New England Journal of Medicine, 360(21), 2153–2157. https://doi.org/10.1056/NEJMp0900702

Buchanan, B. G., & Shortliffe, E. H. (1984). Rule-based expert systems: The MYCIN experiments of the Stanford Heuristic Programming Project. Addison-Wesley.

Devlin, J., Chang, M.-W., Lee, K., & Toutanova, K. (2018). BERT: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805. https://doi.org/10.48550/arXiv.1810.04805

Dwork, C., Hardt, M., Pitassi, T., Reingold, O., & Zemel, R. (2012). Fairness through awareness. Proceedings of the 3rd Innovations in Theoretical Computer Science Conference, 214–226. https://doi.org/10.1145/2090236.2090255

Eubanks, V. (2018). Automating inequality: How high-tech tools profile, police, and punish the poor. St. Martin’s Press.

European Union. (2016). Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data and on the free movement of such data (General Data Protection Regulation). https://eur-lex.europa.eu/eli/reg/2016/679/oj

Foucault, M. (1975). Discipline and punish: The birth of the prison. Vintage Books.

Friedman, C., Alderson, P. O., Austin, J. H., Cimino, J. J., & Johnson, S. B. (1995). A general natural-language text processor for clinical radiology. Journal of the American Medical Informatics Association, 2(2), 165–170. https://doi.org/10.1136/jamia.1995.95202589

Human Rights Watch. (2020). Venezuela: Urgent aid needed to combat COVID-19. https://www.hrw.org/news/2020/05/26/venezuela-urgent-aid-needed-combat-covid-19

Jurafsky, D., & Martin, J. H. (2021). Speech and language processing (3rd ed.). Pearson.

Lazer, D., Kennedy, R., King, G., & Vespignani, A. (2014). The parable of Google Flu: Traps in big data analysis. Science, 343(6176), 1203–1205. https://doi.org/10.1126/science.1248506

Lucas, H. (2008). Information and communications technology for future health systems in developing countries. Social Science & Medicine, 66(10), 2122–2132. https://doi.org/10.1016/j.socscimed.2008.01.033

Microsoft. (2022). AI for Health: Empowering organizations to accelerate healthcare innovation. https://www.microsoft.com/en-us/ai/ai-for-health

Obermeyer, Z., Powers, B., Vogeli, C., & Mullainathan, S. (2019). Dissecting racial bias in an algorithm used to manage the health of populations. Science, 366(6464), 447–453. https://doi.org/10.1126/science.aax2342

Proctor, R. N. (1988). Racial hygiene: Medicine under the Nazis. Harvard University Press.

Rajkomar, A., Hardt, M., Howell, M. D., Corrado, G., & Chin, M. H. (2018). Ensuring fairness in machine learning to advance health equity. Annals of Internal Medicine, 169(12), 866–872. https://doi.org/10.7326/M18-1990

Shortliffe, E. H., & Cimino, J. J. (2014). Biomedical informatics: Computer applications in health care and biomedicine (4th ed.). Springer.

Snow, J. (1855). On the mode of communication of cholera (2nd ed.). John Churchill.

Topol, E. J. (2019). Deep medicine: How artificial intelligence can make healthcare human again. Basic Books.

Yang, Q., Liu, Y., Chen, T., & Tong, Y. (2019). Federated machine learning: Concept and applications. ACM Transactions on Intelligent Systems and Technology, 10(2), 1–19. https://doi.org/10.1145/3298981

Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power. PublicAffairs.

Notas del autor:

Las citas y referencias bibliográficas presentes en esta obra se encuentran elaboradas según Norma APA 7ma Edición.

The citations and bibliographic references in this work have been prepared in accordance with the APA 7th Edition standard.

[...]

Excerpt out of 24 pages  - scroll top

Buy now

Title: Intersección del Procesamiento del Lenguaje Natural con la Salud Pública

Essay , 2025 , 24 Pages , Grade: 8,50 (B+)

Autor:in: Damir-Nester Saedeq (Author)

Health - Digital Health Management
Look inside the ebook

Details

Title
Intersección del Procesamiento del Lenguaje Natural con la Salud Pública
Subtitle
Potencialidades y Riesgos en un Mundo Digital
Course
Investigación Independiente autoformativa en salud pública: Análisis de riesgos y oportunidades del procesamiento del lenguaje natural en entornos digitales sanitarios
Grade
8,50 (B+)
Author
Damir-Nester Saedeq (Author)
Publication Year
2025
Pages
24
Catalog Number
V1585889
ISBN (PDF)
9783389140604
ISBN (Book)
9783389140611
Language
Spanish; Castilian
Tags
Procesamiento del lenguaje natural NLP salud pública vigilancia epidemiológica políticas basadas en evidencia equidad sanitaria derechos digitales aprendizaje profundo sesgos algorítmicos vigilancia biomédica contextos autoritarios justicia algorítmica gobernanza ética participación comunitaria marcos legales dictadura algorítmica tecnologías inclusivas aprendizaje federado brechas globales dignidad humana.
Product Safety
GRIN Publishing GmbH
Quote paper
Damir-Nester Saedeq (Author), 2025, Intersección del Procesamiento del Lenguaje Natural con la Salud Pública, Munich, GRIN Verlag, https://www.grin.com/document/1585889
Look inside the ebook
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
Excerpt from  24  pages
Grin logo
  • Grin.com
  • Payment & Shipping
  • Contact
  • Privacy
  • Terms
  • Imprint