Periodista tecnológica, investigadora y profesora universitaria, Emily K. Dawson es una de las voces más influyentes a la hora de explicar cómo la inteligencia artificial está moldeando el presente. Nacida en Austin, Texas, en 1993, combina una sólida formación académica (periodismo en la Universidad de Texas, una maestría en Yale y un doctorado en ingeniería) con una trayectoria profesional que cruza grandes empresas tecnológicas como IBM y Alphabet Inc., y el mundo académico, donde actualmente enseña en el Instituto de Tecnología de Illinois.
A lo largo de su carrera, ha trabajado para acercar los debates tecnológicos a todo tipo de públicos, especialmente en lo que respecta a cómo la IA afecta nuestra vida cotidiana: desde la educación y la ciberseguridad, hasta los medios de comunicación y la ética digital. En sus libros —como IA en la vida cotidiana: Así es tu IA a IA, El futuro de la IA o Historia y evolución de la IA en los últimos 50 años—, ha demostrado que la inteligencia artificial no es solo un asunto de ingenieros o científicos, sino un tema cultural, social y profundamente humano.
Con un estilo claro, directo y lleno de ejemplos cercanos, Emily nos invita a mirar más allá del brillo de la tecnología para entender lo que hay detrás de cada algoritmo. En esta entrevista, hablamos con ella sobre los grandes desafíos que plantea la IA, por qué es vital que todos tengamos una mirada crítica al respecto, y cómo podemos prepararnos —como individuos y como sociedad— para un futuro que, en realidad, ya empezó.
P: Emily, en otras ocasiones, has dicho que no podemos permitirnos el lujo de ignorar la inteligencia artificial. ¿Qué quieres decir con eso?
Emily: La IA ya forma parte de nuestras decisiones cotidianas. Está decidiendo qué vemos, qué compramos, e incluso quién consigue una entrevista de trabajo. Si la ignoramos, perdemos la oportunidad de influir en cómo se diseña y en qué intereses responde. Y cuando dejas que otros decidan sin ti, lo habitual es que no salgas beneficiado.

P: ¿Crees que la gente está siendo demasiado pasiva frente a estas tecnologías?
Emily: Sí, y no es culpa suya. Durante años se nos ha vendido la tecnología como algo neutro, técnico, casi mágico. Pero la realidad es que está hecha por personas, con ideas, prejuicios y objetivos concretos. Si la gente no participa en el debate, las decisiones se toman en despachos cerrados, sin representar la diversidad real que existe fuera de esos despachos.
P: ¿Qué tipo de consecuencias tiene eso en la vida real?
Emily: Muchas más de las que pensamos. Hay algoritmos que penalizan a personas por su código postal, por su forma de escribir el currículum o por datos históricos que están llenos de sesgos. Y todo eso ocurre sin que la mayoría lo sepa. Lo preocupante es que estas decisiones parecen objetivas, pero no lo son. Solo están disfrazadas de objetividad porque vienen de una máquina.
P: Entonces, ¿no se trata de estar a favor o en contra de la IA?
Emily: Exacto. No es una cuestión de “blanco o negro”. La IA no es buena ni mala en sí misma, pero puede amplificar lo que ya funciona mal. Por eso lo importante no es si la usamos o no, sino cómo, para qué y bajo qué condiciones. Y sobre todo, quién toma esas decisiones.
P: ¿Cómo crees que se podría implicar más a la ciudadanía en este debate?
Emily: Primero, dejando de tratar la tecnología como un asunto sólo de expertos. Necesitamos espacios donde la gente pueda preguntar, opinar, disentir. En algunos de los proyectos que comparto con mi comunidad en redes, intento justamente eso: abrir la conversación y acercar estos temas al día a día de las personas.
P: ¿Y el papel de la educación? ¿Vamos tarde?
Emily: No vamos tarde si actuamos ya. Pero hay que dejar de ver la educación sólo como una fábrica de programadores. Lo técnico es importante, sí, pero también lo es enseñar a pensar críticamente, a cuestionar lo que una pantalla nos dice que es verdad. La alfabetización digital no es solo saber usar una app, es saber cómo nos afecta y cuándo decir “esto no me convence”.
P: ¿Qué opinas de todo el hype mediático que hay en torno a la inteligencia artificial?
Emily: Está muy polarizado. Por un lado, se habla de ella como si fuera una herramienta mágica que lo va a resolver todo. Por otro, hay titulares apocalípticos que parecen sacados de películas. Y mientras tanto, se ignoran los problemas reales que ya tenemos encima. Ni es salvadora ni es amenaza total: es una herramienta poderosa que requiere responsabilidad y control.

P: ¿Qué responsabilidad tienen las empresas tecnológicas en todo esto?
Emily: Mucha. No pueden escudarse en que solo crean herramientas. Cada decisión que toman —qué datos usan, cómo entrenan los modelos, a quién contratan— tiene un impacto. Y si no hay una regulación clara, lo que acaba dominando es el beneficio económico, no el bienestar social. Es algo que vengo analizando desde hace años en mi trabajo profesional. Por eso también necesitamos gobiernos que se enteren de lo que está pasando y actúen.
P: ¿Cómo evitar que la IA reproduzca desigualdades?
Emily: Lo primero es asumir que ya lo está haciendo. No podemos arreglar lo que no reconocemos. A partir de ahí, involucrar a personas con distintas experiencias, trayectorias y perspectivas en el desarrollo de estas tecnologías. La diversidad no es solo un eslogan bonito: es la única manera de construir sistemas más justos.
P: Para terminar, ¿cómo ves el futuro de la IA?
Emily: Con muchas posibilidades, pero también con riesgos evidentes. Todo dependerá de lo que decidamos ahora. Si dejamos que el desarrollo tecnológico avance sin cuestionamientos sociales, acabaremos con sistemas cada vez más opacos y excluyentes. Pero si nos implicamos, si exigimos transparencia, ética y participación, podemos conseguir que la IA mejore la vida de más personas, no solo de las mismas de siempre.