¿Seguimos sintiéndonos parte de lo que hacemos? IA y trabajo
- Obtener enlace
- X
- Correo electrónico
- Otras aplicaciones
Imagen
generada por la autora con IA mediante ChatGPT (modelo GPT-5)
En Uruguay, como en buena
parte del mundo, la conversación sobre la inteligencia artificial (IA) gira en
torno a cifras. Las preguntas predominantes son cuántos empleos se perderán,
cuántos se transformarán y cuánto más productivas podrán ser las empresas. El
debate público oscila entre la esperanza de una eficiencia sin precedentes y el
temor a una ola de desempleo.
Pero detrás de esa
narrativa en la que unos parecen ganar y otros perder se oculta otra dimensión,
menos visible pero igualmente decisiva: la manera en que la IA reconfigura la
experiencia subjetiva del trabajo, especialmente entre quienes lo conservan y se
dedican a actividades intensivas de conocimiento, creación o decisión, donde el
valor del hacer no reside solo en el resultado, sino también en el modo de
producirlo.
En nuestra investigación,
desarrollada en el Departamento de Sociología (Udelar) y financiada por la ANII*,
llamamos trabajo inteligente a esta nueva forma de hacer, mediada por
sistemas digitales avanzados y organizada bajo nuevas modalidades de gestión
que articulan la acción humana con la capacidad computacional de procesar,
predecir o generar.
En ese espacio más poroso
entre lo humano y las infraestructuras digitales se están transformando no solo
las tareas, sino también los marcos morales y simbólicos que orientan la
experiencia del trabajo.
Que el trabajo otorga
sentido y pertenencia es una idea tan repetida en la sociología que casi parece
obvia. Desde Durkheim (1893), que lo
veía como base de la solidaridad social, hasta Weber (1905), que lo entendió
como vocación, o Honneth (1997), que lo colocó en el centro de la lucha por el
reconocimiento, el trabajo aparece como una experiencia moral y relacional.
Sennett (1998) y Dejours
(2000), este último desde la psicodinámica del trabajo, mostraron también cómo
las transformaciones laborales afectan la identidad, el carácter y la salud mental,
revelando la dimensión afectiva del hacer. Esto ayuda a entender por qué las
transformaciones actuales del trabajo impactan no solo en su organización, sino
también en su sentido moral.
De las distintas maneras
de entender el trabajo, me interesa detenerme en una: el trabajo como forma,
como modo de hacer que vincula acción, materia y reconocimiento. Es
precisamente esa forma la que hoy se modifica. Lo que parecía evidente se
vuelve incierto cuando las máquinas comienzan a participar del acto de hacer,
al grado en que hoy lo hacen. La pregunta clave no es solo qué tareas dejan de
hacer los humanos, sino también si seguimos sintiéndonos parte de lo que
hacemos. La IA reabre, y con intensidad, la pregunta por el vínculo entre
producción y reconocimiento. Esta transformación no es solo técnica, porque
altera las fronteras de lo valioso y lo delegable, y con ello los criterios
morales que orientan el trabajo.
Es en esta
reconfiguración del valor y del reconocimiento donde radica, en última
instancia, el verdadero impacto de la IA sobre el trabajo.
La conversación
dominante: eficiencia y sustitución
En octubre de 2024, el
Banco Mundial y la OIT (Gmyrek et al., 2024) estimaron que en Uruguay cerca del
37 % de los empleos podrían verse afectados por la IA generativa y alrededor de
un 5 % totalmente automatizados, con aumentos de productividad de hasta un 11
%. El Monitor Laboral de Advice (2025) confirma que la demanda de
habilidades digitales y asociadas a la ciencia de datos crece de manera
sostenida. Los perfiles más buscados son aquellos capaces de interactuar con
sistemas inteligentes, traducir preguntas en prompts y supervisar
resultados generados por algoritmos.
La frase ya instalada en
las redes sociales, foros y eventos empresariales y de recursos humanos “la
IA no te reemplaza; te reemplaza quien la use”, condensa un mandato moral y
competitivo. Resume un nuevo orden del valor: la competencia por dominar la
herramienta redefine quién cuenta como valioso, qué se premia y qué se penaliza
en las organizaciones.
El lado invisible:
orgullo, vergüenza y pertenencia
Giray (2024) utiliza el
término AI shaming para describir la vergüenza relacionada al menosprecio
dirigido a personas por utilizar IA en la creación de contenido o la
realización de tareas en su trabajo. Una encuesta global de KPMG y la
Universidad de Melbourne (Gillespie et al., 2025) muestra que más de la mitad
de los empleados ocultan su uso de IA, temiendo perder credibilidad. En Estados
Unidos, un estudio de la plataforma de recursos humanos Gusto (2025) revela
patrones similares: el 45 % de los
empleados en Estados Unidos ha usado herramientas de IA en su trabajo sin
informar a sus jefes. Ese uso encubierto ocurre en un contexto de ansiedad
profesional donde muchos trabajadores sienten presión por demostrar
competencias digitales (uno de cada cuatro admite exagerarlas) y no están
seguros de si usar IA los hará verse más capaces o menos legítimos.
Esta vergüenza tal vez
sea transitoria, parte del proceso de legitimación. A medida que se consoliden
marcos normativos y culturales que orienten el uso de la IA, es probable que la
ansiedad y la ocultación cedan paso a nuevas formas de regulación moral. Pero
esa incomodidad inicial es, en sí misma, una señal del cambio moral: indica el
momento en que se reescriben los límites de lo que puede delegarse sin perder
sentido de autoría. Es el síntoma más visible de una transformación más
profunda, una que redefine qué parte del hacer puede seguir sintiéndose propia.
El mandato “si no la
usás, no competís” impulsa una adopción acelerada, desalienta la cautela y
genera un uso encubierto de la IA, percibido a veces como una forma de hacer
trampa. De esta manera, se erosiona el reconocimiento del mérito personal y la
pertenencia en el producto final.
¿Por qué se oculta algo
que, en teoría, aumenta la productividad? Porque el trabajo no se valora solo
por lo que produce, sino por la forma en que se hace. Esa forma, es decir el
modo de implicarse, decidir y cuidar, sigue siendo el terreno donde se define
el reconocimiento. Cuando la mediación tecnológica altera ese modo hasta
volverlo menos propio, surge la vergüenza no porque la acción sea objetivamente
ilícita, sino porque se vive como una transgresión al ideal de trabajo legítimo
o auténtico. Es una forma de culpa moderna que emerge cuando el límite entre
hacer y delegar se vuelve incierto. Lo que antes era motivo de orgullo, el
hacer bien algo, puede volverse sospecha y abrir una duda nueva: si lo que
producimos sigue siendo realmente nuestro o si ya pertenece “a la máquina”.
Se trata, en el fondo, de
un choque entre dos gramáticas de valor: la de la eficiencia, que celebra la
optimización, y la del reconocimiento, que premia la autoría y la implicación
en el proceso.
Una nueva jerarquía moral
del trabajo
Estudios recientes (Reif,
Larrick y Soll, 2025) muestran que los trabajadores que usan IA son percibidos
como menos competentes, aun cuando su producción es igual o mejor. Incluso se
les atribuye menor valor económico: un mismo resultado “vale más” si se percibe
como humano. El llamado AI-authorship effect (Kirk y Givi, 2025)
confirma que cuando la IA aparece como coautora, disminuye la sensación de
autenticidad para los consumidores.
Desde la teoría
sociológica, esto puede leerse como una crisis de justificación (Boltanski y
Thévenot, 2006) puesto que la IA introduce un nuevo régimen de valor que obliga
a redefinir qué cuenta como trabajo legítimo. Sin reconocimiento, el trabajo
pierde sentido, aunque sea eficiente. Como señala Honneth (1997), la falta de
reconocimiento atenta contra la autoestima y la pertenencia social. La
literatura reciente sobre meaningful work (Santoni de Sio, 2024)
advierte que la automatización puede amenazar la agencia y el sentido del
hacer. Estudios experimentales sobre coescritura con modelos generativos muestran
que la pérdida de control, por ejemplo, aceptando sugerencias automáticas,
reduce el sentimiento de propiedad sobre el texto, especialmente entre personas
que se perciben menos representadas o incluidas en los entornos tecnológicos,
como mujeres y minorías de género (Kadoma et al., 2024). A su vez, investigaciones recientes indican
que las mujeres reportan mayor ansiedad y cautela hacia la IA, menor uso y una
percepción más intensa de barreras morales o reputacionales (Russo et al.,
2025; Otis et al., 2024).
Más que una cuestión de
eficiencia, la IA transforma lo que consideramos valioso, lo que decidimos
delegar, lo que tendemos a ocultar y lo que reconocemos como propio. No solo
redistribuye tareas, sino también el crédito moral del hacer. La pregunta, tan
urgente como humana, es si quienes trabajamos con estas herramientas seguimos
sintiendo que nuestro aporte nos pertenece y qué significa, en este nuevo contexto,
seguir sintiéndonos parte de lo que hacemos.
Referencias
Boltanski, L. y Thévenot,
L. (2006). On Justification: Economies
of Worth. Princeton University Press.
Dejours, C
(2000). “Psicodinámica del trabajo y vínculo social”. Revista
Actualidad Psicológica, (274), 2-5.
Durkheim, E.
(1893) [1987]. La división del trabajo social . Madrid: Akal.
Gillespie, N., Lockey, S., Ward,
T., Macdade, A., & Hassed, G. (2025). Trust, attitudes and use of
artificial intelligence: A global study 2025. The University of Melbourne
and KPMG. DOI 10.26188/28822919.
Giray L. AI Shaming: The Silent
Stigma among Academic Writers and Researchers. Ann Biomed Eng. 2024
Sep;52(9):2319-2324. doi: 10.1007/s10439-024-03582-1. Epub 2024 Jul 8. PMID:
38977530.
Gmyrek, P., Winkler, H., &
Garganta, S. (2024). Buffer or bottleneck?: employment exposure to generative
AI and the digital divide in Latin America (, Ill.). ILO : World Bank .
https://doi.org/10.54394/TFZY7681
Gusto (2025) Is AI Coming for My
Job? A Look Inside America’s Workplace Anxiety. https://gusto.com/resources/articles/hr/team-management/ai-workplace-anxiety
Honneth, A. (1997) La lucha por el
reconocimiento. La gramática moral de los conflictos sociales. Barcelona: Crítica.
Kadoma, K., Le
Quéré,M., Fu, J., Munsch,CH., Metaxa,
D., y Naaman, M., (2024). The Role of Inclusion, Control, and Ownership in
Workplace AI-Mediated Communication. 1, 1. https://doi.org/10.1145/
Kirk, C. y Givi, J., (2025).The
AI-authorship effect: Understanding authenticity, moral disgust, and consumer
responses to AI-generated marketing communications, Journal of Business
Research, Volume 186, 2025, 114984. https://doi.org/10.1016/j.jbusres.2024.114984.
Monitor Laboral Primer Semestre
2025. Advice. https://www.advice.com.uy/MonitorLaboral/MonitorLaboral-1erSemestre2025.pdf
Otis, G., Delecourt, S., Cranney,
K., and Koning, R., "Global Evidence on Gender Gaps and Generative
AI." Harvard Business School Working Paper, No. 25-023, October
2024. (Revised August 2025.)
Reif, J., Larrick, R., y Soll, J. Evidence of a social evaluation penalty for
using AI, Proc. Natl. Acad. Sci. U.S.A. 122 (19) e2426766122,
https://doi.org/10.1073/pnas.2426766122 (2025).
Russo, C., Romano, L., Clemente, D., Iacovone, L., Gladwin T., y Panno A. (2025). Gender diferences in artificial intelligence: the role of artificial intelligence anxiety. Front. Psychol. 16:1559457. doi: 10.3389/fpsyg.2025.1559457.
Santoni de Sio, F. Artificial
Intelligence and the Future of Work: Mapping the Ethical Issues. J
Ethics 28, 407–427 (2024). https://doi.org/10.1007/s10892-024-09493-6
Sennett, R (1998). La corrosión del
carácter. Barcelona: Anagrama.
Weber, M. (1905) [2011]. La ética protestante y el espíritu del
capitalismo México: Fondo de Cultura Económica.
Nota (*) Convocatoria 2024 Fondo Clemente Estable (FCE_3_2024_1_180880)

Tomado de Razones y Personas. Esta obra está bajo una Licencia Creative Commons Atribución 3.0 No portada.
- Obtener enlace
- X
- Correo electrónico
- Otras aplicaciones