Artículos


La tecnofobia como narrativa emergente frente a la regulación de la inteligencia artificial

Technophobia as an Emerging Narrative in Response to Artificial Intelligence Regulation

A tecnofobia como narrativa emergente diante da regulação da inteligência artificial




André Runée Contreras1

1 0000-0002-8585-435X.
Universidad de Pamplona, Colombia.
andrerunee@gmail.com


Recibido: 27/06/2025
Aceptado por pares: 19/09/2025
Enviado a pares: 11/08/2025
Aprobado: 9/12/2025


Para citar este artículo / To reference this article / Para citar este artigo: Contreras, A. R. (2026). La tecnofobia como narrativa emergente frente a la regulación de la inteligencia artificial. Palabra Clave 28(3), e2836. https://doi.org/10.5294/pacla.2025.28.3.6


Resumen

El avance acelerado de la inteligencia artificial (IA) ha generado no solo transformaciones tecnológicas y normativas, sino también narrativas sociales marcadas por el miedo y la incertidumbre. Entre ellas, la narrativa tecnofóbica, entendida como el temor al desplazamiento humano por máquinas inteligentes, que emerge como un discurso recurrente frente a los intentos de regulación institucional de esta tecnología. Este artículo, de carácter documental y enfoque analítico, explora cómo se configura esta narrativa en el contexto global y latinoamericano, con especial atención al caso colombiano. A partir de un corpus integrado por documentos académicos, marcos normativos, informes de política pública y medios de comunicación, se examina cómo la regulación de la IA se percibe como un mecanismo de protección ética y también como catalizadora de ansiedad colectiva. El análisis revela que la tecnofobia no responde únicamente a la resistencia al cambio, sino que se vincula con desigualdades estructurales, brechas digitales y percepciones de pérdida de agencia humana. En este sentido, el artículo propone comprender la tecnofobia como una narrativa emergente que interpela el lugar del sujeto en un ecosistema regulado por algoritmos y gobernanzas automatizadas.

Palabras clave: Inteligencia artificial; narrativas sociales; percepción pública; regulación; tecnofobia.


Abstract

Artificial intelligence (AI) has rapidly evolved into a transformative force, reshaping not only technologies and industries but also regulatory frameworks and public discourse. One of the most prominent social responses to this phenomenon is technophobia: the growing fear that intelligent systems may displace human labor and agency. This article adopts a documentary and critical approach to analyze the emergence of technophobia as a dominant narrative in contemporary debates surrounding AI regulation. Drawing from a diverse body of academic literature, policy documents, legislation, and media sources with particular attention to Latin America and the Colombian context the study examines how regulatory initiatives are both a response to ethical imperatives and a source of social anxiety. Findings suggest that technophobia reflects deeper societal concerns tied to inequality, digital exclusion, and uncertainty about the human role in algorithm-driven environments. In this sense, the article argues that understanding technophobia as an emerging narrative helps reveal the cultural tensions underlying current efforts to govern artificial intelligence.

Keywords: Artificial intelligence; cultural narratives; social perceptions; AI regulation; technophobia.


Resumo

O avanço acelerado da inteligência artificial (IA) tem gerado não apenas transformações tecnológicas e normativas, mas também narrativas sociais marcadas pelo medo e pela incerteza. Entre elas, destaca-se a tecnofobia, entendida como o temor do deslocamento humano por máquinas inteligentes, que emerge como um discurso recorrente diante das tentativas institucionais para regulamentar essa tecnologia. Este artigo, de caráter documental e enfoque analítico, explora como essa narrativa se configura tanto no contexto global quanto latino-americano, com ênfase especial no caso colombiano. A partir de um corpus composto por documentos acadêmicos, marcos legais, relatórios de políticas públicas e fontes midiáticas, analisa-se como a regulação da IA é percebida não apenas como um mecanismo de proteção ética, mas também como catalisadora de ansiedade coletiva. A análise revela que a tecnofobia não se limita à resistência à mudança, mas vincula-se a desigualdades estruturais, brechas digitais e percepções de perda de agência humana. Nesse sentido, propõe-se compreender a tecnofobia como uma narrativa emergente que interpela o lugar do sujeito em um ecossistema regulado por algoritmos e governanças automatizadas.

Palavras-chave: Inteligência artificial; narrativas sociais; percepção pública; regulação; tecnofobia.



La inteligencia artificial (IA) se ha convertido en uno de los pilares del cambio estructural de la sociedad contemporánea. Su creciente implementación en sectores tan diversos como el trabajo, la educación, la salud o la comunicación ha generado múltiples narrativas sociales, entre las que destaca un temor latente a la posibilidad de que los sistemas inteligentes desplacen al ser humano en funciones consideradas irremplazables. Este fenómeno, conocido como tecnofobia, ha resurgido con fuerza en el debate público, en parte por el avance exponencial de la IA generativa y en parte por el impulso global de marcos regulatorios que buscan controlar su desarrollo (Follari, 2023; Cardona-Puig, 2023).

La tecnofobia no es simplemente una reacción emocional a la novedad tecnológica. En su dimensión narrativa, se presenta como una construcción simbólica colectiva que articula miedos, desconfianzas y resistencias a un futuro automatizado (Caldera-Serrano, 2025; López y Peña, 2023). Este temor se ve alimentado por la incertidumbre que generan fenómenos como la automatización del empleo (Baños, 2024), la pérdida de agencia humana en procesos automatizados (HAI Stanford University, 2025) y, como afirma Quintero (2023), las brechas sociodigitales que impiden una apropiación crítica de estas tecnologías en el Sur Global, entendido como el conjunto de naciones que forman parte de América Latina, África y Asia que atraviesan por condiciones estructurales de desigualdad frente al Norte Global.

En América Latina y, en particular, en Colombia este discurso cobra relevancia, en la medida en que se intersecta con contextos de desigualdad estructural, alfabetización digital limitada y escepticismo frente a las políticas públicas tecnológicas. El proyecto de ley unificado sobre IA propuesto por el Ministerio de Tecnologías de la Información y las Comunicaciones (MinTIC, 2025) y la reciente Política Nacional de Inteligencia Artificial (DNP, 2024) han buscado establecer mecanismos normativos de gobernanza; sin embargo, en el discurso mediático y en la opinión pública, estas iniciativas han sido recibidas con desconfianza o temor. La regulación, en este contexto, no solo actúa como instrumento jurídico, sino también como catalizador simbólico de ansiedades sociales (DW, 2025; González García, 2023).

Este artículo parte de la premisa de que la tecnofobia no debe ser entendida únicamente como un rechazo irracional a la tecnología, sino como una narrativa emergente que expresa el malestar cultural ante el desplazamiento de lo humano en un mundo regulado por algoritmos. Desde una perspectiva documental y analítica, se propone examinar cómo esta narrativa se construye y se legitima a través de discursos institucionales, mediáticos y académicos en el contexto latinoamericano, con énfasis en el caso colombiano. Así, se busca contribuir a la comprensión crítica de las implicaciones simbólicas de la regulación de la IA en las sociedades contemporáneas.

La tecnofobia en la era digital

La tecnofobia es una forma de ansiedad social ante el progreso tecnológico, que se manifiesta como rechazo, temor o resistencia a innovaciones que alteran profundamente las dinámicas humanas tradicionales (Zajko, 2022). Autores como El Zailah y González Moreno (2023) argumentan que este miedo está estrechamente relacionado con el temor a perder la capacidad de agencia, creatividad y autonomía, especialmente en contextos donde la inteligencia artificial reproduce o supera habilidades humanas. Esta preocupación ha tomado especial fuerza ante el despliegue masivo de sistemas de IA generativa como ChatGPT o DALL-E, que imitan procesos intelectuales como la escritura, la toma de decisiones o la creación artística (Valiña y Mastroleo, 2023). Follari (2023), desde una lectura filosófica, propone que la tecnofobia debe entenderse también como una crítica a la hegemonía de la racionalidad técnico-instrumental que coloniza el sentido del sujeto moderno.

El fenómeno ha sido ampliamente documentado en estudios recientes. Por ejemplo, en el informe sobre el futuro del empleo, realizado por el World Economic Forum (2025), se observa que más del 30% de los empleadores encuestados en América Latina expresan preocupación por el reemplazo laboral derivado de la automatización inteligente y la actualización digital (Bocîi y Ursua, 2023). En Colombia, investigaciones como la de Quintero (2023) evidencian que estudiantes universitarios tienden a usar IA para facilitar sus actividades académicas, pero simultáneamente manifiestan temor de que estas herramientas los vuelvan "dependientes" o les resten capacidad reflexiva. Este tipo de tensiones demuestra que la tecnofobia no siempre implica un rechazo total, sino una relación ambivalente, atravesada por la fascinación y el miedo.

En el ámbito académico, esta problemática también se expresa en preocupaciones por el rol del docente, el investigador o el creador de contenidos ante la creciente capacidad de las IA para producir textos, diseñar clases o responder evaluaciones. Documentos como el de Novomisky y Le Voci (2025) advierten que este tipo de miedo puede ser incluso exacerbado por los discursos institucionales que presentan la IA como inevitable, sin abrir espacios reales de formación crítica o deliberación ética.

Por todo ello, la tecnofobia en la era digital no puede interpretarse como una simple reacción conservadora. Se trata de una narrativa colectiva que articula temores legítimos por un modelo de desarrollo tecnológico que no siempre garantiza inclusión, equidad ni sentido humano. Desde esta perspectiva, analizar la tecnofobia permite comprender los límites simbólicos de la promesa tecnológica y la necesidad de democratizar tanto su diseño como su gobernanza.

Límites de la tecnofobia en los entornos laborales

La tecnofobia no se limita al ámbito doméstico o educativo y encuentra en el mundo del trabajo una de sus expresiones más profundas y estructurales, pues, a medida que los sistemas de inteligencia artificial adquieren mayor autonomía y capacidad para desempeñar tareas, antes exclusivas de los seres humanos, se intensifica la percepción de vulnerabilidad en los espacios laborales, especialmente en sectores con alta exposición a la automatización (Jiang et al., 2024). Este temor no es infundado: numerosos informes y estudios anticipan que millones de empleos serán transformados, sustituidos o eliminados en la próxima década como consecuencia directa del avance tecnológico (Ultreras-Rodríguez et al., 2025).

En este escenario, la tecnofobia se manifiesta como una ansiedad anticipatoria vinculada al desempleo tecnológico, la obsolescencia profesional y la pérdida del sentido ético del trabajo humano (Ortiz, 2024). Según el informe "El impacto de la IA en el empleo: seis claves para 2025" de IA+Igual (2025), los puestos con mayor riesgo de desaparecer o transformarse radicalmente incluyen asistentes administrativos, operadores de atención al cliente, traductores humanos, analistas de datos, redactores técnicos y hasta ciertos perfiles docentes. Estas transformaciones no solo afectan la estabilidad económica, sino que también erosionan identidades laborales construidas a lo largo del tiempo (Szeszák et al., 2025; Rawas, 2024; Human y Watkins, 2023).

El estudio de Aghaei (2024) ilustra este fenómeno a partir de testimonios de trabajadores de empresas tecnológicas en Colombia, quienes expresaron sentimientos de desarraigo, inutilidad y pérdida de dignidad profesional tras ser reemplazados por sistemas automatizados. Razón por la que, en el plano ético, también surgen varias preocupaciones relevantes por la manera como se definen los límites morales del reemplazo humano y qué derechos laborales deben protegerse frente a la reestructuración digital de las empresas. Según Espíndola y Suárez (2023), la ausencia de marcos éticos sólidos y participativos en la implementación de IA favorece una lógica extractivista del conocimiento y del trabajo humano, lo cual acentúa el miedo y la resistencia social. Este vacío normativo se evidencia especialmente en países del Sur Global, donde la regulación es incipiente y la precariedad laboral convierte a los trabajadores en población altamente sustituible (Herrera, 2024; Granados, 2023).

Frente a este panorama, la narrativa tecnofóbica se configura, no como una oposición irracional al cambio, sino como una forma de resistencia discursiva ante la incertidumbre profesional. En muchos casos, la tecnofobia sirve para visibilizar los vacíos que existen entre la innovación tecnológica y los marcos de protección social. Además, al instalar en la agenda pública la discusión sobre los límites éticos del reemplazo humano, contribuye a fortalecer el debate sobre la necesidad de una gobernanza algorítmica más justa, transparente y centrada en el bienestar humano.

Tecnofobia como narrativa emergente: percepción pública y construcción simbólica de la IA

En este sentido, la tecnofobia puede ser analizada como una narrativa cultural emergente que intenta dar sentido a la creciente presencia de tecnologías autónomas, anticipando sus posibles consecuencias y redefiniendo el lugar del ser humano en sociedades mediadas por algoritmos. Según Cardona-Puig (2023), este tipo de narrativas no solo reflejan temores sociales, sino que también actúan como instrumentos de resistencia simbólica ante un discurso dominante que naturaliza la automatización como proceso inevitable y deseable.

Los medios de comunicación juegan un papel central en la construcción y diseminación de esta narrativa. La mayoría de los reportes periodísticos analizados (DW, 2025; Goldberg, 2024) presentan la inteligencia artificial como una amenaza latente al empleo, a la creatividad y a la autonomía individual. Estos relatos apelan a metáforas apocalípticas, imágenes de robots tomando decisiones o titulares sobre "trabajos en extinción", lo que contribuye a generar una percepción colectiva de vulnerabilidad (Grupo Banco Mundial, 2025). A su vez, este tipo de cobertura puede generar una ansiedad social amplificada, donde el miedo no se origina necesariamente por el contacto directo con la tecnología, sino por su representación discursiva.

Asimismo, estas narrativas no son homogéneas. En el contexto latinoamericano y, específicamente, en Colombia su configuración está mediada por variables sociopolíticas como la desconfianza institucional, la desigualdad de acceso a las tecnologías y el historial de exclusión en las políticas públicas tecnológicas. Por ejemplo, en el debate del Proyecto de Ley de Inteligencia Artificial en Colombia hubo tensiones entre el discurso técnico del Estado y las inquietudes ciudadanas en torno a la protección de datos, la transparencia algorítmica y la posibilidad de sesgos automatizados (DNP, 2024). En este caso, la narrativa tecnofóbica también se convierte en un canal legítimo de demanda ciudadana por regulación ética y justicia digital.

Regulación de la IA: entre control tecnológico y ansiedad social

La regulación de la inteligencia artificial ha tomado un papel central en el debate global sobre el futuro digital. Varias instituciones multilaterales, incluida la Unión Europea y la Unesco (2021), han propuesto principios orientadores destinados a garantizar el desarrollo responsable de sistemas de IA centrados en el ser humano, guiados por la ética y la transparencia y con fundamento en los derechos humanos para tecnologías inteligentes. La primera legislación global en este campo: la Ley de Inteligencia Artificial, fue adoptada por la Unión Europea en 2024, con un enfoque basado en el riesgo para el desarrollo y el uso de sistemas de IA, además de definir niveles de supervisión y sanciones proporcionales. Sin embargo, como se destaca en el Informe del Índice AI de HAI de Stanford de 2025, la regulación no es solo una herramienta técnico-legal, sino un acto de comunicación y simbolismo que impacta en la opinión pública sobre la tecnología (Bonaque-González et al., 2024).

Dicha medida, por tanto, tiene un impacto simbólico que va más allá de su contenido normativo. Al instituir qué es permisible y qué no en el desarrollo de IA, configura imaginarios sobre lo que es deseable, legítimo o peligroso. Como plantea Harari (2018), toda norma sobre tecnología proyecta una visión del mundo, una idea de humanidad y una distribución del poder. En ese sentido, la narrativa tecnofóbica encuentra en las leyes un punto de anclaje discursivo para legitimar su visión del presente: un mundo en el que los humanos ya no controlan las máquinas, sino que necesitan regularlas para evitar su desborde.

Esto es particularmente relevante en contextos con brechas tecnológicas y desconfianza institucional, como América Latina. En Colombia, según el informe de Next Step (2025), más del 60% de los encuestados en sectores administrativos y educativos expresaron no comprender en qué consiste la "ética de la IA" ni cómo las leyes vigentes les protegen de algoritmos que puedan sesgar decisiones. Esta desconexión entre el lenguaje técnico-legal y la ciudadanía refuerza el sentimiento de vulnerabilidad al avance de tecnologías que operan "por encima" de la comprensión común.

Además, la falta de formación crítica en los fundamentos y límites de la IA favorece la aparición de discursos simplistas o catastrofistas, en los que la regulación se asocia con una lucha desesperada contra un destino tecnológico ya trazado. Así, como bien advierte Follari (2023), "reglamentar sin educar es legislar sobre la oscuridad", y, por tanto, la tecnofobia se alimenta cuando las políticas públicas no incluyen mecanismos reales de apropiación ciudadana y deliberación ética. Por ello es indispensable considerar la regulación como una herramienta de control técnico y como una forma de comunicación política y cultural, capaz de construir o desactivar imaginarios sociales sobre la IA. Este enfoque es clave para entender cómo las narrativas tecnofóbicas se nutren, transforman o disuelven en función del modo en que se diseñan, implementan y socializan los marcos normativos.

Metodología

Este trabajo aplica un enfoque cualitativo, narrativo y documental que explora la interpretación crítica de los discursos contemporáneos sobre la IA, así como sus efectos simbólicos en el imaginario social. El estudio se sitúa dentro de los estudios interpretativos que dan preferencia a la comprensión de significados, construidos socialmente en el lenguaje, las representaciones sociales y los marcos simbólicos, que se configuran a través de fenómenos emergentes surgidos en el campo de la comunicación (Barrera et al., 2022; Flick, 2015).

En relación con el material documental, se revisaron fuentes secundarias relevantes: artículos académicos, informes institucionales, textos legales, revistas especializadas y piezas periodísticas que se han publicado desde 2020 hasta 2025. Esta elección metodológica se guía por el objetivo de analizar cómo se articulan las narrativas tecnofóbicas en la cultura actual, no solo como una reacción emocional, sino como una narrativa cultural que da voz a la ansiedad, la resistencia y las posiciones éticas en relación con el desarrollo de las IA (Reyes-Ruiz y Carmona, 2020).

Al mismo tiempo, se adoptó un método narrativo, como una estrategia de investigación que reconoce el poder de las historias para estructurar la experiencia humana y define las narrativas sociales como instrumentos para la producción de significado frente a lo desconocido o disruptivo (Bolívar et al., 2001). En este espíritu, podemos ver la tecnofobia como una nueva narrativa llena de historias (en los medios, en la legislación y regulación, en instituciones y universidades) que cargan la percepción pública de la IA. El método empleado fue el análisis de contenido cualitativo (Riba, 2023), para el cual se utilizó un corpus de 43 documentos. Este corpus fue constituido por muestreo intencional, con materiales sobre los siguientes temas: temor o ansiedad ante la automatización; regulación de la inteligencia artificial en América Latina y Europa; y percepciones éticas, laborales y profesionales basadas en el uso de tecnologías inteligentes. La revisión incluyó fuentes extraídas de revistas científicas (como AI & Society, Educational Technology & Society y Comunicar) y bases de datos institucionales (como la Comisión Europea, HAI Stanford University, MinTIC) y medios como DW, BBC Mundo y El Tiempo.

Para garantizar la calidad académica del corpus y controlar la diversidad en las perspectivas estudiadas, se llevó a cabo un proceso de validación de las fuentes incluidas al identificar su procedencia y nivel de indexación. De las 43 fuentes documentales revisadas, 27 fueron clasificadas como fuentes totalmente válidas (debido a su carácter científico, institucional o editorial, como revistas indexadas en Scopus, WoS, ERIC y Springer; informes oficiales y libros universitarios), mientras que 10 fueron clasificadas como fuentes parcialmente válidas (repositorios académicos o publicaciones regionales sin indexación internacional) y seis correspondieron a ma­teriales impresos o prensa especializada, utilizándose exclusivamente con fines ilustrativos.

Este procedimiento facilitó la delimitación de un conjunto de textos robusto y característico a nivel teórico, institucional y mediático de reflexiones sobre la tecnofobia, la inteligencia artificial y su regulación ética y social.

Tabla 1. Bases bibliográficas consultadas

Fuente

Bases de datos principales

No. de referencias

Académicas verificadas

Revistas indexadas en Scopus, WoS, ERIC, Springer o D OAJ (AI & Society, Éticas de la IA, Revista Colombiana de Educación, Etic@Net, Revista Interamericana de Bibliotecología, Hallazgos, Brújula de Sociología, CES Derecho, Trayectorias Humanas Trascontinentales, etc.).

27

Institucionales y normativas

Organismos internacionales y repositorios oficiales: Unesco, Parlamento Europeo, Comisión Europea, HAI Stanford University, Banco Mundial, Foro Económico Mundial, MinTIC, Cepal, DNP, Observatorio de Tecnología Social.

10

Divulgativas o periodísticas

Medios de comunicación y sitios especializados: BBC Mundo, DW, La Vanguardia, IA+Igual, Next Step, Blog Universidad Konrad Lorenz.

6

Corpus total

 

43

Fuente: elaboración propia.


Posteriormente se desarrolló una matriz de categorías teóricas e inductivas para codificar las recurrencias discursivas sobre la tecnofobia, así como para delinear las metáforas, oposiciones simbólicas y representaciones que rigen el discurso de la tecnofobia. Esta matriz se utilizó para comparar la investigación con los aportes teóricos, lo que permitió una validez interna y una consistencia interpretativa de los resultados. Se resalta que, al tratarse de una investigación interpretativa, narrativa y documental, el propósito es comprender cómo se generan, circulan y cambian las narra­tivas sociales respecto a la IA, en relación con el miedo a ser reemplazado por máquinas y el poder simbólico que este fenómeno despliega dentro del paradigma actual.

Fases de análisis y tipos de tecnofobia abordados

El análisis documental se estructuró en tres fases complementarias, que permitieron organizar y profundizar la lectura crítica del corpus seleccionado. En la etapa exploratoria, las fuentes se agruparon por tipología (académicas, documentos normativos, periodismo), origen geográfico (América Latina, Europa, contexto mundial) y eje temático (automatización laboral, regulación, percepción social, ética de la IA); esta fase permitió definir un corpus deliberado y relevante de 43 documentos. En la fase de análisis, se llevó a cabo un análisis cualitativo de contenido temático buscando tendencias discursivas, metáforas maestras, temas controvertidos y símbolos oposicionales, y se utilizó una matriz tridimensional para cada uno de estos ejes: miedo y temor tecnológico, narración sobre futuros del trabajo y sustitución humana, y discursos normativos y regulación como espectáculo simbólico. Por último, en la fase interpretativa: se compararon los resultados con el constructo teórico propuesto, destacando articulaciones entre tecnofobia, percepción social y regulación, para proponer una lectura crítica de la tecnofobia como una narrativa social de resistencia contra el seguro algorítmico.

Resultados

A continuación se organizan cuatro clasificaciones clave que describen el análisis documental de acuerdo con los rasgos más representativos de la tecnofobia (laboral, ética, normativa y cultural), cuya exposición incluye ejemplos representativos tomados del corpus analizado, así como la incorporación de tablas que sistematizan las principales expresiones de dichas narrativas tecnofóbicas en distintos contextos. Esta organización busca ofrecer una mirada estructurada y comprensiva de los modos en que se configura el miedo tecnológico en la actualidad.

Tecnofobia laboral: el miedo al reemplazo en los discursos sobre automatización

La tecnofobia laboral se presenta como una de las formas más frecuentes y explícitas de resistencia social a la inteligencia artificial. Esta forma de temor colectivo se articula principalmente en torno a la amenaza de reemplazo de trabajadores humanos por sistemas automatizados, en múltiples sectores de la economía. Las fuentes revisadas revelan que esta preocupación no se limita a campos operativos o industriales, sino que se ha expandido a profesiones administrativas, creativas y de servicios, como afirma Reina (2024).

Como lo plantea el informe de RPA Technologies de Rivera et al. (2024), se proyecta que más del 40% de los cargos administrativos actuales experimentarán una transformación sustancial o serán completamente automatizados antes del 2030 (Villagómez, 2025). Esta proyección ha generado preocupación incluso en sectores que antes se consideraban "protegidos" por el juicio humano, como el derecho, la medicina o la educación. A ello se suma lo señalado por el informe de Next Step de 2025, donde el 62% de los trabajadores encuestados en Colombia expresaron temor a ser desplazados por herramientas de IA generativa en sus funciones rutinarias, especialmente en áreas de atención al cliente, ventas y procesos contables.

Estos discursos no solo se registran en los medios, sino también en documentos legislativos. El proyecto de Ley de Inteligencia Artificial (2024), por ejemplo, justifica la necesidad de intervención del Estado "ante el riesgo de sustitución masiva del capital humano en sectores estratégicos", lo que traduce una preocupación institucional por los impactos de la automatización (González Moreno, 2023). Del mismo modo, la cobertura mediática de BBC Mundo y DW alimenta la narrativa tecnofóbica al utilizar metáforas como "la ola invisible que arrastra empleos" o "el algoritmo que te despide sin aviso". La Tabla 2 sintetiza algunos factores representativos de la tecnofobia en ámbitos laborales.

Tabla 2. Factores clave de la tecnofobia en el ámbito laboral en fuentes mediáticas y legales

Fuente

Repositorio/ base de datos

Discurso tecnofóbico laboral

Factores asociados

Condiciones de emergencia

Bocíi y Ursua (2023)

Scopus: Eikasía

Análisis sobre la deshumanización del trabajo y la ansiedad ante la automatización.

Despersonalización del trabajo, pérdida de propósito.

Crisis de identidad profesional en sectores automatizados.

Grupo Banco Mundial (2025)

Sitio institucional: World Bank Results

Advierte sobre el riesgo de pérdida de empleo en América Latina y propone políticas de reconversión laboral.

Desigualdad estructural y transformación del empleo.

Brechas tecnológicas y falta de políticas públicas inclusivas.

IA+Igual (2025)

Portal especializado europeo: iamasigual.eu

Divulga seis claves del impacto de la IA en el empleo, destacando la inseguridad laboral.

Falta de alfabetización digital y miedo a la pérdida de ingresos.

Vulnerabilidad en sectores de servicios y administrativos.

Rivera et al. (2024)

Portal tecnológico RPA Technologies

Proyección del 40% de automatización en trabajos administrativos.

Eficiencia algorítmica y reorganización laboral.

Falta de acompañamiento en transición profesional.

Ultreras-Rodríguez et al. (2025)

RedALyC: Koinonía

Análisis empírico sobre automatización y tecnofobia laboral en México.

Reducción del empleo y necesidad de nuevas competencias.

Falta de marcos éticos y regulatorios en el trabajo digital.

Reina (2024)

Blog de la Universidad Konrad Lorenz

Reflexión sobre el impacto de la IA en los entornos industriales 4.0.

Modernización sin control humano suficiente.

Desajuste entre innovación tecnológica y seguridad laboral.

Villagómez (2025)

DOAJ: Revista Científica Multidisciplinaria

Revisión sistemática del impacto de la IA en los ámbitos laborales y económicos.

Efectos estructurales de la digitalización global.

Falta de adaptación institucional al cambio tecnológico.

Fuente: elaboración propia.


Tecnofobia ética: representaciones de desconfianza frente a decisiones automatizadas

La tecnofobia ética se manifiesta como una respuesta crítica al desplazamiento del juicio humano en decisiones de alta sensibilidad social. Esta forma de temor no se centra en la pérdida de empleos o funciones, sino en la renuncia involuntaria al control moral, deliberativo y político sobre procesos que afectan directamente la vida de las personas. Este tipo de tecnofobia cobra relevancia ante el uso creciente de algoritmos en sectores como la justicia, la salud, la vigilancia o la educación. La Ley de Inteligencia Artificial de la Unión Europea (2024) introduce esta preocupación, al establecer niveles de riesgo para los sistemas de IA, incluyendo aquellos que puedan afectar derechos fundamentales, la dignidad humana o el bienestar colectivo. Del mismo modo, el AI Index (HAI Stanford University, 2025) destaca cómo la opacidad algorítmica ha generado una "crisis de explicabilidad", al dificultar la rendición de cuentas y la transparencia.

Franganillo y Lópezosa (2023) señalan los sesgos presentes en sistemas digitales, especialmente en plataformas que influyen en la toma de decisiones sobre empleo, crédito o justicia. Esta desconfianza también se ve alimentada por la narrativa mediática, como lo muestra la cobertura de BBC Mundo, donde se alerta sobre la posibilidad de "perder el control humano ante decisiones automáticas e irreversibles". A nivel teórico, López y Peña (2023) señalan que la ética funcional que guía a muchos sistemas automatizados sustituye los principios humanistas por criterios de eficiencia, predicción y cálculo, lo cual desplaza la deliberación ética como base de la vida pública. En la Tabla 3 se presentan algunos los factores representativos de esta fobia.

Tabla 3. Factores clave de la tecnofobia ética frente a la IA

Fuente

Repositorio/base de datos

Discurso tecnofóbico ético

Factores asociados

Condiciones de emergencia

Figueroa et al. (2024)

CrossRef: Sage Sphere International Journal

Analiza los dilemas éticos de la IA y la necesidad de humanizar los sistemas algorítmicos.

Falta de supervisión moral en decisiones automatizadas.

Déficit en educación ética y control algorítmico.

HAI Stanford University (2025)

Portal institucional: Stanford University, AL Index Report

Advierte sobre la "crisis de explicabilidad" y la opacidad algorítmica.

Sesgos y falta de transparencia.

Carencia de auditorías y rendición de cuentas.

Franganillo y Lópezosa (2023)

Repositorio: Universitat de Barcelona

Analiza los sesgos de plataformas digitales y la ausencia de marcos éticos sólidos.

Dependencia tecnológica sin formación crítica.

Ausencia de políticas éticas educativas.

Unesco (2021)

Portal institucional: UnesdocUnesco.

Recomendación sobre ética de la IA y derechos humanos.

Gobernanza ética y principios globales.

Implementación desigual en contextos latinoamericanos.

Human y Watkins (2023)

Springer Nature: Ethics of AI

Propone una ética de necesidades humanas frente a la automatización.

Sustitución del juicio moral humano.

Riesgos de despersonalización de decisiones automatizadas.

Herrera (2024)

Medio periodístico: BBC News Mundo

Alerta sobre la pérdida del control humano en decisiones automáticas.

Delegación excesiva al algoritmo.

Discurso mediático alarmista sobre la autonomía de la IA.

Fuente: elaboración propia.


Tecnofobia normativa: regulación como síntoma de amenaza percibida

Una de las formas más sutiles y poderosas de tecnofobia es aquella que se manifiesta en el plano normativo. A diferencia del miedo al reemplazo laboral o al juicio automatizado, la tecnofobia normativa se configura como desconfianza en la capacidad de las leyes para controlar o anticiparse al desarrollo acelerado de la inteligencia artificial, lo cual genera, en consecuencia, percepciones de vulnerabilidad institucional.

El Proyecto de Ley de LA en Colombia (2024), en su intento por establecer un marco de principios orientadores para el uso responsable de la IA, refleja la preocupación estatal por los efectos disruptivos de la automatización en la vida cotidiana. Sin embargo, este tipo de iniciativas, más que calmar, suelen intensificar el temor social, al mostrar que incluso los legisladores reconocen que no existe aún una estructura clara de gobernanza digital. Del mismo modo, la ley de IA de la Unión Europea (2024) clasifica los sistemas de IA por niveles de riesgo (inaceptable, alto, limitado y mínimo), lo que ha sido interpretado en varios sectores como una forma de oficializar el carácter potencialmente peligroso de estas tecnologías.

Con una lectura crítica, el artículo "Miradas plurales de la tecnofobia" (El Zailah-Bernal y González-Durán, 2024) señala que cuando una tecnología requiere regulación especial es porque se percibe como una amenaza, lo que refuerza su imagen de "fuerza incontrolable". Esta idea también aparece en Figueroa et al. (2024), quienes denuncian la disonancia entre la velocidad de la innovación tecnológica y la lentitud del aparato normativo, lo cual alimenta la incertidumbre pública. En este contexto, medios de comunicación como La Vanguardia (2025) y BBC Mundo contribuyen a la narrativa alarmista, al hablar de una "urgencia global por regular antes de que sea demasiado tarde", con lo que se refuerza el imaginario de riesgo inminente. La Tabla 4 resume los principales factores y condiciones que configuran la tecnofobia normativa.

Tabla 4. Factores clave de la tecnofobia normativa ante la regulación de la IA

Fuente

Repositorio/base de datos

Discurso tecnofóbico normativo

Factores asociados

Condiciones de emergencia

Unión Europea (2024)

Portal oficial Eur-Lex: Diario Oficial de la Unión Europea

Clasifica los sistemas de IA por niveles de riesgo, lo que refuerza la percepción de amenaza.

Reconocimiento político del potencial peligro tecnológico.

Debate sobre los límites de la gobernanza digital.

MinTIC (2025)

Sitio web

Proyecto de ley colombiano sobre IA que busca prevenir riesgos de automatización.

Desconfianza institucional ante el avance tecnológico.

Brecha entre regulación y aplicación práctica.

Breceda (2024)

RedALyC:Trayectorias Humanas Trascontinentales

Aborda la relación entre dignidad humana y regulación tecnológica en América Latina.

Falta de armonización jurídica regional.

Dependencia de marcos normativos externos.

El Zailah-Bernal y González-Durán (2024)

Dialne: Politécnica

Reflexiona sobre cómo la regulación amplifica el miedo tecnológico.

Asociación entre control legal y amenaza percibida.

Escasa alfabetización jurídica ciudadana.

La Vanguardia (2025)

Medio periodístico: lavanguardia.com

Presenta la regulación como defensa ante "riesgos incontrolables"

Discurso mediático de urgencia legislativa.

Falta de consenso político y claridad normativa.

DNP (2024)

Portal institucional: MinTIC Noticias

Anuncio de la Política Nacional de IA como marco de confianza tecnológica.

Intento de institucionalizar la gobernanza digital.

Adaptación inicial del marco ético latinoamericano.

Fuente: elaboración propia.


Tecnofobia cultural: imaginarios distópicos y pérdida de referentes humanistas

Finalmente, la tecnofobia cultural se expresa como una resistencia simbólica y afectiva ante el reemplazo de referentes tradicionales, humanistas o comunitarios por una lógica técnica hegemónica, alimentada por narrativas de control, reemplazo y deshumanización. Esta forma de miedo no se limita al rechazo racional de la inteligencia artificial, sino que actúa desde la sensibilidad colectiva y la memoria cultural, muchas veces moldeada por el arte, los medios y la educación.

El informe de la Deutsche Welle (DW, 2025) ilustra cómo la IA es comúnmente asociada con futuros distópicos, lo cual genera una representación del progreso tecnológico como una amenaza a la identidad humana. Esta visión se refuerza en el informe de la Federación Internacional de Asociaciones e Instituciones Bibliotecarias (IFLA, 2024), que advierte sobre la pérdida de valores culturales, como la creatividad, la empatía o el juicio ético, ante la expansión de automatismos. En la misma línea, Novomisky y Le Voci (2025) reflexionan sobre la tecnocratización del discurso público, en el que la innovación técnica desplaza formas de conocimiento local, ancestral o no computacional.

En este sentido, el uso de maquinaria automatizada no solo competirá con el ser humano, sino que redefinirá los parámetros de lo valioso, lo útil y lo bello (Ultreras-Rodríguez et al., 2025). Por su parte, Herrera (2024) advierte que la presencia ubicua de sistemas de IA predictiva genera temor a la pérdida de autonomía individual, al tiempo que se percibe una erosión del sujeto crítico y creativo. En la Tabla 5 se sintetizan los elementos clave de este enfoque cultural de la tecnofobia.

Tabla 5. Factores de la tecnofobia cultural frente a la IA

Fuente

Repositorio/ base de datos

Discurso tecnofóbico cultural

Factores asociados

Condiciones de emergencia

Ortiz
(2024)

Scopus: Hallazgos

Analiza la brecha digital y el impacto de la automatización en la pérdida de valores humanistas.

Desigualdad tecnológica y erosión de la cultura laboral.

Deshumanización del trabajo digital.

Bonaque-González et al.
(2024)

RedALyC: Etic@ Net

Reflexiona sobre mitos digitales y resistencia cultural ante el aprendizaje tecnológico.

Rechazo simbólico al uso de IA.

Déficit de apropiación crítica y educativa.

Zajko
(2022)

Scopus: Brújula de Sociología

Examina la desigualdad y la percepción de la IA como amenaza al orden social.

Concentración del poder tecnológico.

Brecha Norte-Sur en cultura digital.

DW
(2025)

Medio público: Deutsche Welle

Representa la IA como símbolo de pérdida de identidad y distopía tecnológica.

Difusión mediática de narrativas apocalípticas.

Influencia de discursos alarmistas globales.

Novomisky y Le Voci
(2025)

Repositorio: Universitat de Barcelona

Reflexión sobre la tecnocratización y el desplazamiento del conocimiento humanístico.

Pérdida de saberes locales y culturales.

Imposición global del modelo tecnocéntrico.

Ultreras-Rodríguez et al.
(2025)

RedALyC:

Koinonía

Aborda la automatización con una lectura humanista y simbólica.

Redefinición del rol creativo y laboral humano.

Crisis de sentido cultural frente al avance técnico.

Herrera
(2024)

Medio periodístico: BBC News Mundo

Expone el temor a la pérdida de autonomía frente a sistemas predictivos.

Internalización de la narrativa de obsolescencia humana.

Percepción de inevitabilidad tecnológica.

Fuente: elaboración propia.


Discusión

Los resultados del análisis documental evidencian que la tecnofobia no puede ser reducida a un miedo irracional al avance tecnológico, sino que constituye una construcción narrativa compleja y socialmente distribuida. En el contexto colombiano, estas narrativas adquieren matices particulares asociados a la desigualdad digital, la informalidad laboral y la falta de políticas públicas de inclusión tecnológica. Los discursos mediáticos y gubernamentales, como los promovidos por MinTIC (2025) y la Política Nacional de Inteligencia Artificial, revelan tanto el entusiasmo por la innovación como la ansiedad social ante su implementación desigual.

La tecnofobia laboral, por ejemplo, no surge únicamente por la automatización en sí misma, sino por la ausencia de garantías institucionales para la reconversión profesional. En el caso colombiano, los datos del Grupo Banco Mundial (2025) y el informe de Next Step (2025) confirman que más del 60% de los trabajadores perciben riesgo de sustitución laboral por IA, especialmente en sectores administrativos, de servicios y educación. Esta percepción coincide con la falta de políticas de formación digital sostenible identificada por Villagómez (2025) y Rivera et al. (2024), lo que refuerza el carácter estructural del temor al reemplazo tecnológico.

En el plano ético, los temores detectados giran en torno a la opacidad algorítmica, la falta de rendición de cuentas y el uso de sistemas de IA en decisiones sensibles. En Colombia, este debate comienza a emerger en el ámbito educativo y judicial, donde el uso de sistemas automatizados plantea dilemas sobre la transparencia de la información y la protección de datos personales. Además, estudios como el de Burrell (2016) evidenciaron una preocupación respecto de la formación de los futuros profesionales, puesto que se teme una sustitución del criterio pedagógico por algoritmos de evaluación automatizada.

La tecnofobia normativa podrá ser una respuesta crítica a la disonancia entre innovación y regulación, tensión que se puede observar en el caso de la ley de IA de Colombia, la cual actualmente se está redactando y la está impulsando MinTIC, donde la regulación parece más un productoamplio.  Como advierte Breceda (2024), los regímenes legales reverberan normas europeas sin tener en cuenta los desequilibrios o imbricaciones socioestructurales regionales y en el proceso se vuelven normativamente vulnerables.

En el ámbito cultural, las narrativas tecnofóbicas se nutren de imaginarios mediáticos. Por ejemplo, en Colombia, los discursos replican estos paradigmas a partir de argumentos contradictorios que se extienden a lugares como DW en español o BBC Mundo, que representan la IA como una amenaza o como una oportunidad. Sin embargo, la ausencia de una narrativa cultural local sobre innovación tecnológica genera dependencia simbólica de perspectivas y experiencias externas, sin analizar el trasfondo ideológico, como alerta Ortiz (2024) al observar la pérdida de referencias humanísticas en discursos dirigidos al progreso digital.

En general, los resultados de este estudio confirman que la tecnofobia no es solo un obstáculo infundado para el progreso, sino una nueva historia sobre las revueltas sociales: la distribución desigual del acceso al conocimiento y la información, la incapacidad institucional frente a la prevalencia de la automatización, la dilución de la penetración del sistema de moralidad antigua en la sociedad contemporánea y una sospecha respecto a la autonomía de las operaciones, como también lo nota Breceda (2024).

Conclusiones

El análisis documental destaca que la tecnofobia a la inteligencia artificial (IA) no es un fenómeno marginal ni una mera resistencia al progreso. Por el contrario, representa una historia organizada y multifacética que expresa tensiones laborales, éticas, normativas y culturales. Estas historias revelan no solo ansiedades individuales, sino dudas compartidas sobre la capacidad de la IA para cambiar radicalmente tanto las prácticas humanas como el orden social. En el contexto colombiano, estos resultados cobran especial relevancia debido a la coexistencia de políticas proinnovación y rezago digital. Los discursos de tecnofobia laboral y ética están vinculados a condiciones estructurales de desigualdad, un hecho que explica la sospecha social hacia la automatización y la escasa adopción crítica de la IA en las esferas tanto productivas industriales como educativas.

Una de las lecciones clave aprendidas de esta revisión es que el miedo al reemplazo por tecnologías automatizadas, particularmente en el ámbito laboral, tiene menos que ver con la IA per se y más con la falta de políticas públicas sólidas para el reciclaje profesional y la protección social. La tecnofobia laboral, en este sentido, significa una economía digitalmente eficiente y estructuralmente injusta con trabajadores colocados en escenarios de vulnerabilidad estructural o extrema, como los observados en las periferias colombianas y el sector público, donde los procesos de digitalización tienen lugar sin formación efectiva ni políticas de transición laboral para ofrecer educación digital a individuos de un marco cultural hipersocial, como afirman Castañeda (2025) y Next Step (2025).

En el plano ético, se evidencia falta de confianza, porque el sistema automatizado toma decisiones sensibles sin una clara dirección humana o provisión satisfactoria para explicar el proceso. Los temores expresan la deshumanización del juicio y la erosión de la reflexión ética que se detecta. Por lo tanto, estos discursos tecnofóbicos merecen ser vistos como llamados reales a la rendición de cuentas, la transparencia y los límites éticos en la construcción de la tecnología.

Además, es interesante considerar el discurso regulatorio sobre la IA, dado que los esfuerzos de regulación pueden tener un curioso efecto paradójico, pues, en lugar de dar seguridad a la sociedad, pueden aumentar la creencia en la amenaza. Eso se debe a que cuando las leyes intentan categorizar los sistemas de IA como riesgosos o no riesgosos o agregar palabras vagas, están indicando que podríamos tener tecnología descontrolada. Así que la tecnofobia regulatoria resulta no solo de la no regulación, sino también de su ambigüedad y definición reactiva.

Por otra parte, se evidenció que la tecnofobia cultural reúne y exagera los imaginarios distópicos profundamente arraigados en la sociedad, y crea visiones fatalistas del futuro tecnológico, en el cual la humanidad ha perdido su papel, creatividad y significado. La creciente prominencia de tales discursos indica una división entre el progreso técnico y la diversidad cultural, así como la marginación del conocimiento humanístico.

Por último, los resultados advierten que la tecnofobia no es un obstáculo irracional para el progreso, sino un discurso naciente sobre tensiones sociales reales. En el caso colombiano, esta lectura proporciona una comprensión de la tecnofobia como una respuesta a las tensiones entre innovación y equidad, modernización y justicia social. Escuchar las historias de angustia tecnológica en el país no solo humaniza la IA, sino que también democratiza su desarrollo, lo que genera impedimentos para la profundización de nuevas formas de exclusión basadas en brechas digitales y educativas.

Agradecimientos

Se agradece el apoyo institucional de la Universidad de Pamplona, así como a los revisores anónimos, cuyo juicio crítico y comentarios contribuyeron al fortalecimiento del manuscrito.

Financiación

No aplica.

Declaración de intereses

Declaro que no existe ningún conflicto de interés financiero, personal ni académico que haya influido en los resultados o interpretación del presente estudio.

Declaración de ética y consentimiento

Este trabajo es de tipo documental y no involucra investigación con seres humanos ni animales, por lo tanto, no se requiere aprobación por parte de un comité de ética.

Disponibilidad de datos o materiales

Los datos utilizados corresponden a fuentes primarias y secundarias y, asimismo, a documentos públicos debidamente referenciados. No se generó un conjunto de datos primario.

Consentimiento para publicación

No aplica.

Declaración de Inteligencia Artificial

En la preparación del presente artículo se utilizaron herramientas de inteligencia artificial generativa (ChatGPT de OpenAI y Perplexity) como apoyo para la revisión de estilo y organización de fuentes bibliográficas. Todas las decisiones de contenido, análisis e interpretación fueron realizadas por el autor de forma crítica, garantizando la integridad y originalidad del manuscrito.



Referencias

Aghaei Ghaleche, S. (2024). Evaluación de las percepciones de los empleados sobre la integración de la IA en las decisiones laborales. Revista de Gestión de Recursos e Ingeniería de Decisiones, 2(4), 24-30. https://journalrmde.com/index.php/jrmde/article/view/35

Álvarez Cuesta, H. (2023). El impacto de la tecnología en las relaciones laborales: retos presentes y desafíos futuros. Justicia & Trabajo, 2. doi:10.69592/2952-1955-N2-JUNIO-2023-ART-2

Baños González, V. (2024). La inteligencia artificial, estudio de su evolución y aplicación en México. Pádi, 12 (Especial 4), 250-260. https://doi.org/10.29057/icbi.v12iEspecial4.13338

Barrera, D. M., Pulido Sánchez, M. Y. y Bautista Gómez, S. T. (2022). La investigación narrativa en la educación. Miradas, 17(1), 95-109. https://doi.org/10.22517/25393812.25052

Bocîi, L.-S. y Ursua, N. (2023). La inteligencia artificial y el impacto en el mundo laboral inteligente. Eikasía, 118, 247-269. https://doi.org/10.57027/eikasia.118.744

Bolívar Botía, A., Domingo Segovia, J. y Fernández Cruz, M. (2001). La investigación biográfico-narrativa en educación: enfoque y metodología. La Muralla.

Bonaque-González, S., Castilla-Niebla, M. S., García-Benito, E. y Pareja-Ríos, A. (2024). Tecnofobia en las TIC: superando mitos en el uso de pantallas digitales para el aprendizaje. Etic@Net, 24(1). https://doi.org/10.30827/eticanet.v24i1.29316

Breceda Pérez, J. A. (2024). La dignidad humana frente a la inteligencia artificial: un análisis ético y normativo en América Latina. Trayectorias Humanas Trascontinentales, 18. https://doi.org/10.25965/trahs.6367

Burrell, J. (2016). Cómo "piensa" la máquina: comprensión de la opacidad en los algoritmos de aprendizaje automático. Big Data & Society, 3(1). https://doi.org/10.1177/2053951715622512

Caldera-Serrano,J. (2025). Aplicaciones de la inteligencia artificial para automatización de procesos documentales en los archivos audiovisuales televisivos. Revista Interamericana de Bibliotecología, 48(1), e356060. https://doi.org/10.17533/udea.rib.v48n1e356060

DNP - Departamento Nacional de Planeación. (2024). Nace una nueva Política Nacional de Inteligencia Artificial (IA). https://n9.cl/li-z4d4DW - Deutsche Welle. (2025). Así impacta la IA en América Latina. 21 de mayo. https://www.dw.com/es/así-impacta-la-inteligencia-artificial-en-américa-latina/a-72619838

El Zailah-Bernal, D. Y. y González-Durán, E. J. (2024). Miradas plurales de la tecnofobia. Revista Politécnica, 20(39), 148-156. https://doi.org/10.33571/rpolitec.v20n39a10

Espíndola, E. y Suárez, J. I. (2023). Automatización del trabajo y desafíos para la inclusión laboral en América Latina: estimaciones de riesgo mediante aprendizaje automático ajustadas a la región. Serie Políticas Sociales, No. 245. Cepal. https://n9.cl/3yz0r

Fecyt - Fundación Española para la Ciencia y la Tecnología. (2024). La inteligencia artificial y su impacto en el bienestar social: Informe de tendencias 2024. https://n9.cl/cpxsp

Figueroa Chichande, X. S., Martillo Gallardo, N. M., Martínez Márquez, T. B. y Torres Rodríguez, M. C. (2024). La ética en la inteligencia artificial: desafíos y oportunidades para la sociedad moderna. Sage Sphere International Journal, 1(1), 1-24. https://doi.org/10.63688/78e7m802

Filippi, E., Bannò, M. y Trento, S. (2023). Automation technologies and their impact on employment: A review, synthesis and future research agenda. Technological Forecasting and Social Change, 197, 122448. https://doi.org/10.1016/j .techfore.2023.122448

Flick, U. (2015). Diseño de investigación cualitativa (2 ed.). Morata.

Follari, R. (2023). Por fuera de la tecnofilia y la tecnofobia. Ciencias Sociales, 1(44), 17-29.

Goldberg, E. (2024). ¿Desaparecerán los trabajos "inútiles" o sin sentido gracias a la IA? El Tiempo, 16 de agosto. https://www.eltiempo.com/mundo/new-york-times-international-weekly/acabara-la-ia-con-los-trabajos-sin-proposito-desaparecera-la-ia-empleos-sin-sentido-3372472

González García, A. (2023). Impacto de la inteligencia artificial generativa en el mercado laboral colombiano. [Trabajo de grado en Economía, Universidad de Antioquia]. https://n9.cl/97a55

González Moreno, L. (2023). Inteligencia artificial y Derecho: retos jurídicos. [Trabajo de grado en Filosofía del Derecho, Universidad Pontificia Comillas]. https://n9.cl/mjfn1

Granados Ferreira,J. (2023). El impacto de la inteligencia artificial en los trabajadores despedidos por automatización de servicios. Revista CES Derecho, 14(3), 62-81. https://doi.org/10.21615/cesder.7416

Grupo Banco Mundial. (2025). Cuantificando el potencial de empleo de la inteligencia artificial en América Latina y el Caribe. 15 de abril. https://www.bancomundial.org/es/results/2025/04/15/quantifying-the-jobs-potential-of-ai-in-latin-america-and-the-caribbean

HAI Stanford University. (2025). The 2025 AI Index Report. https://aiin-dex.stanford.edu/report/

Harari, Y. N. (2018). 21 lecciones para el siglo XXI. Pratec.

Herrera Triguero, F. (2024). Qué se espera en 2025 de la inteligencia artificial, el avance que marcó un antes y un después en la historia de la tecnología. BBC News Mundo, 29 de diciembre. https://www.bbc.com/mundo/articles/c4gxzx0kpp6o

Human, S. y Watkins, R. (2023). Needs and artificial intelligence. IA & Ethics, 3, 811-826. https://doi.org/10.1007/s43681-022-00206-z

IA+Igual. (2025). El impacto de la IA en el empleo: seis claves para 2025. 4 de febrero https://iamasigual.eu/el-impacto-de-la-ia-en-el-empleo-claves-para-2025/

IFLA - International Federation of Library Associations and Institutions. (2024). IFLA trend report 2024: Facing the future of information with confidence (Trend Report). https://www.ifla.org/wp-content/uploads/ifla-trend-report-2024.pdf

Jiang, H., Wang, X. y Liu, C. (2024). Máquinas automatizadas y la brecha salarial laboral. Technological Forecasting and Social Change, 204, 123505. https://doi.org/10.1016Zj.techfore.2024.123505

La Vanguardia. (2025, 1 de enero). Lo que la IA no traerá en 2025. https://www.lavanguardia.com/vida/20250101/10249346/ia-traera-2025.html

López Estupiñán, A. M. y Peña Mesa, L. (2023). Inteligencia artificial: el futuro del empleo. Lecciones Vitales, 1(1), lv0103. https://doi.org/10.18046/rlv.2023.6118

Martín, E. (2025). Inteligencia artificial y su impacto en el ámbito laboral y de RRHH: seis claves en 2025. Economist & Jurist. https://n9.cl/sjxzpr

MinTic - Ministerio de Tecnologías de la Información y las Comunicaciones. (2025). Colombia elige una inteligencia artificial centrada en los derechos y la dignidad humana. Comunicado, 7 de mayo. https: / / www.mintic.gov.co/ portal/715/w3- article-401055.html

Next Step Consultores. (2025). Tendencias y retos de la IA en 2025. https://www.next-step.es/tendencias-y-retos-de-la-ia-en-2025/

Novomisky, S. y Le Voci Sayad, A. (eds.) (2025). Alfabetización mediática e informacional en la era de la inteligencia artificial: Cultura digital y educomunicación. Comunicar.

Ortiz Ocaña, A. (2024). La realidad detrás de la tecnología: brecha digital, impacto ambiental y pérdida de empleos. Hallazgos, 21 (42), 177-197. https://doi.org/10.15332/2422409X

Puig, E. C. (2023). Automatización robótica de procesos con inteligencia artificial. [Trabajo de grado en Ingeniería en Tecnologías Industriales, Universitat Politécnica de Catalunya]. https://upcommons.upc.edu/bitstreams/9eaa234f-d7d5-4700-a5bb-cc03cb845343/download

Quintero Diaztagle, C. A. (2023). Tecnofobia: algunas ideas para controlarla. Universidad Católica de Pereira, 23 junio. https://www.ucp.edu.co/columnas_de_opinions/tecnofobia-algunas-ideas-para-controlarla/

Rawas, S. (2024). AI: the future of humanity. Discover Artificial Intelligence, 4, 25. https://doi.org/10.1007/s44163-024-00118-3

Reina, D. (2024). Revolución Industrial 4.0: El impacto de la inteligencia artificial en los entornos industriales. Blog, Universidad Konrad Lorenz, 19 de septiembre. https://www.konradlorenz.edu.co/blog/revolucion-industrial-4-0-el-impacto-de-la-inteligencia-artificial-en-los-entornos-industriales/

Reyes-Ruiz, L. y Carmona Alvarado, F. A. (2020). La investigación documental para la comprensión ontológica del objeto de estudio. Universidad Simón Bolívar, Doctorado en Psicología. https://hdl.handle.net/20.500.12442/6630

Riba Campos, C.-E. (2023). El análisis de contenido en perspectiva cualitativa (3 ed.). Fundació per a la Universitat Oberta de Catalunya (FUOC).

Rivera Picado, C. M., Latorre, L., Rego, E., De Leo, L. y Gutiérrez, M. (2024). Tech Report: RPA. https://doi.org/10.18235/0013018

Szeszák, B. M., Kerékjártó, I. G., Soltész, L. y Galambos, P. (2025). Revoluciones industriales y automatización: seguimiento de las transformaciones económicas y sociales de la fabricación. Sociedades, 15(4), 88. https://doi.org/10.3390/soc15040088

Ultreras-Rodríguez, A., De la Paz-Rosales, M. T. de J., Santana-Alaniz, J. D. y Ramírez-Ortega, A. G. (2025). Inteligencia artificial y su impacto en la automatización del trabajo en México. Koinonía, 10(19), 4-25. https://doi.org/10.35381/r.k.v10i19.4364

Unesco. (2021). Recommendation on the Ethics of Artificial Intelligence. https://unesdoc.unesco.org/ark:/48223/pf0000380455

Unión Europea. (2024). Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas sobre la inteligencia artificial y se modifican los Reglamentos (CE) n.° 300/2008, (UE) n.° 167/2013, (UE) n.° 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Ley de Inteligencia Artificial). Diario Oficial de la Unión Europea, L 168, 1158. https://translate.google.com/website?sl=en&tl=es&hl=es&client=srp&u=http://data.europa.eu/eli/reg/2024/1689/oj

Valiña, L. G. y Mastroleo, I. (2023). Los desafíos éticos y científicos de ChatGPT en salud: utopismo, tecnofobia y pragmatismo. Gaceta, 48, 47-51. https://doi.org/10.31219/osf.io/kvj45

Villagómez Palacios, Á. H. (2025). El impacto de la inteligencia artificial en la sociedad: una revisión sistemática de su influencia en ámbitos sociales, económicos y tecnológicos. Ciencia Latina, 9(1), 8150-8172. https://doi.org/10.37811/cl_rcm.v9i1.16468

WEF - World Economic Forum. (2025). The future of jobs report 2025. https://reports.weforum.org/docs/WEF_Future_of_Jobs_Report_2025.pdf

Zajko, M. (2022). Inteligencia artificial, algoritmos y desigualdad social: contribuciones sociológicas a los debates contemporáneos. Sociology Compass, 16(3), e12962. https://doi.org/10.1111/soc4.12962



Inicio