Inteligencia Artificial: Que pasó en 2025 que esperar en 2026

Escribe Eduardo Laens, CEO de Varegos y docente universitario especializado en IA y autor del libro Humanware

Este fue un año vertiginoso en el mundo de la IA. La revolución que asomó a fines de 2022 con ChatGPT estalló plenamente en 2025, infiltrándose en casi todos los rincones de nuestra vida. Vimos avances impresionantes: modelos de lenguaje aún más poderosos, agentes de IA capaces de actuar casi autónomamente y nuevas aplicaciones creativas. Pero también enfrentamos sacudidas sociales: empleos en riesgo, aulas patas arriba, verdades cuestionadas por contenido sintético y hasta personas enamorándose de avatares. Al hacer balance de este año extraordinario, queda claro que la IA dejó de ser una promesa lejana para convertirse en protagonista omnipresente.

La llegada de los "agentes": Uno de los saltos más sonados fue el de los llamados agentes de IA. Hasta hace poco las IA generativas solo respondían preguntas, pero en 2025 empezaron a tomar la iniciativa para realizar tareas complejas de principio a fin. Esta tecnología con capacidad de encadenar acciones marcó un antes y un después: ahora la IA no solo contesta, sino que hace cosas por sí misma, desde programar pequeñas aplicaciones hasta coordinar tareas multi-paso. Open IA presentó su modo agéntico, Google lanzó “AlphaEvolve” para codificar algoritmos avanzados usando el nuevo modelo Gemini, Anthropic presentó Claude 4, jactándose de que puede funcionar solo durante 7 horas seguidas sin intervención humana.

Impacto en el empleo: Con IAs más confiables y autónomas, el mercado laboral sintió el temblor. Este año muchas empresas grandes anunciaron despidos o reestructuraciones atribuyéndolo (al menos en parte) a la adopción de IA. Se trata de un fenómeno complejo: por un lado, la IA mejora la productividad, pero por otro, amenaza puestos de trabajo tradicionales. Un informe de Los Angeles Times contabilizó cerca de 50.000 recortes de empleo en EE. UU. durante 2025 donde las empresas citaron a la IA como factor. Solo en octubre se anunciaron 31.000 despidos vinculados a automatización acelerada. Los ejemplos abundan. Microsoft anunció 6.000 despidos, IBM unos 9.000, Meta 3.600, UPS unos 12.000, Dell 12.500, Amazon 14.000 y la lista podría continuar por un rato largo. El fenómeno llegó a tal punto que casi todas las conversaciones sobre el futuro del trabajo en 2025 giraban en torno a la pregunta: ¿Cuántos empleos humanos reemplazará la IA? Hay encuestas que anticipan que un 37% de las empresas planea reducir personal por automatización de aquí a 2026, aunque al mismo tiempo surgen nuevos roles especializados. Para muchos trabajadores, el año dejó una mezcla de asombro y ansiedad: asombro al ver IA que hacen tareas enteras en minutos, y ansiedad al preguntarse si su propio puesto es el próximo en la lista.

La IA se cuela en las aulas: Si hubo un ámbito donde la irrupción de la IA generativa fue caótica pero reveladora, ese fue la educación. En colegios y universidades, 2025 será recordado como el año en que hacer trampas se volvió tan sencillo como pedirle la tarea a un robot. El desafío es para las instituciones y los docentes, ya no se puede seguir educando del mismo modo que en 2024. Las plataformas de IA se convirtieron en el “compañero de estudios” extraoficial de millones de alumnos. Para que nos hagamos una idea: apenas dos meses después del lanzamiento de ChatGPT, un 90% de los estudiantes universitarios encuestados en EE. UU. admitió haberlo usado en alguna tarea. Y en 2025 su uso se generalizó aún más entre los más jóvenes: 1 de cada 4 adolescentes de 13 a 17 años confesó usar IA para sus tareas escolares, el doble que el año anterior.

Cual distópica cinta de Möbius, empezó una carrera de policías y ladrones, con alumnos haciendo tarea con IA y docentes intentando usar IA para descubrir si lo entregado por el estudiante fue hecho con IA. Un auténtico caos. Al mismo tiempo, algunos visionarios en educación piden calma y adaptación: “La IA llegó para quedarse, enseñemos a usarla responsablemente”, argumentan. De hecho, ciertas instituciones punteras –como la Escuela de Negocios de American University– decidieron incorporar la IA en el aula en vez de prohibirla, enseñando a los alumnos a apoyarse en estas herramientas de forma ética. Esto no solo ocurre en el hemisferio norte, en Argentina plataformas como FlexFlix han incorporado acuerdos con ministerios provinciales para llevar modelos de IA como asistentes socráticos para los estudiantes, demostrando que es posible reinventar la forma de enseñar y evaluar, porque el viejo modelo de “trabajo en casa y examen escrito” se volvió obsoleto. Lo positivo es que también vimos a la IA utilizada como tutor personalizado: explicando conceptos, corrigiendo borradores junto al alumno, o adaptando ejercicios al nivel de cada cual. En otras palabras, bien usada, la IA puede ser un aliado educativo formidable –pero primero hay que sobrevivir a esta transición convulsa sin que el aprendizaje real se diluya entre atajos automatizados.

¿Qué es verdad? Fakes, deepfakes y desinformación: Otro gran desafío que explotó en 2025 fue el de la verdad en la era de la IA generativa. Nunca fue tan fácil crear contenido falso, y nunca estuvo tan difuminada la línea entre realidad y simulación. Hoy cualquiera con las herramientas adecuadas puede fabricar fotos, audios y videos ultrarrealistas de eventos que nunca ocurrieron, o de personas haciendo/ diciendo cosas que jamás hicieron ni dijeron. En 2025 la tecnología de generación de video sintético dio un salto tremendo. El laboratorio de IA de Google (DeepMind) lanzó Veo 3 capaz de crear clips de vídeo falsos muy convincentes a partir de una simple descripción de texto, seguido por Sora2 de OpenIA, con impactantes resultados. En 2025 proliferaron las estafas con audios deepfake, donde delincuentes clonaban la voz de un familiar para pedir dinero por teléfono. Tanto es así que a finales de año en EE. UU. se presentó un proyecto de ley bipartidista para penalizar duramente los fraudes asistidos por IA, aumentando multas hasta 1–2 millones de dólares y penas de cárcel de hasta 30 años para quienes usen audio, video o texto generados por IA con fines de estafa. Es una respuesta legal a una situación que se salió de control: ¿cómo nos protegemos en un mundo donde cualquier evidencia puede ser falsificada digitalmente? Plataformas y gobiernos están corriendo para implementar contramedidas. También se desarrollan detectores de deepfakes apoyados en IA misma. Pero es una carrera armamentística entre creadores de falsificaciones y detectores, y de momento los creadores llevan ventaja.
El desafío real no es la abundancia de mentiras, sino el lugar que queda para la verdad, porque en este mar de mentiras, toda verdad será ignorada. La consecuencia positiva será que valoraremos más las fuentes confiables, y que aprendamos (por fin) a verificar antes de creer y compartir. Pero mientras llegamos a ese punto, navegamos un océano de desinformación potenciada por IA donde es fácil naufragar.

Avatares, amores sintéticos y soledades: Más allá de su impacto en la esfera pública, la IA también irrumpió en nuestra intimidad y relaciones personales en 2025. Suena a argumento de ciencia ficción, pero es real: muchísima gente entabló vínculos emocionales –y hasta románticos– con inteligencias artificiales este año. Los “compañeros virtuales” existen hace un tiempo (apps como Replika llevaban años ofreciendo chatbots amigables), pero en 2025 este fenómeno dejó de ser nicho para volverse sorprendentemente común. Un estudio en Estados Unidos reveló que más de la mitad de los encuestados (54%) tuvo algún tipo de relación personal con una plataforma de IA –ya sea como colega de trabajo virtual, amigo para conversar o incluso haciendo el rol de un familiar imaginario. Y lo más llamativo: casi un tercio (28%) dijo que esa relación con la IA fue “íntima o romántica”. Es decir, alrededor de 1 de cada 3 personas afirmó haber tenido algo parecido a un noviazgo o affaire con un chatbot. En la generación joven, la tendencia es aún más marcada: un sondeo entre adolescentes de secundaria en EE. UU. indicó que casi 1 de cada 5 ha usado chatbots de IA con fines románticos. ¿Qué está pasando aquí? Básicamente, la IA conversacional se ha vuelto tan avanzada en lenguaje y personalidad que hay quienes desarrollan apego real hacia estas entidades digitales. Para algunos, especialmente los más jóvenes o quienes se sienten solos, hablar con una IA resulta más fácil y seguro que abrirse con humanos. Es entendible: la IA siempre está disponible, te “escucha” con paciencia infinita, adapta sus respuestas para agradarte. Pero claro, todo esto viene con muchas banderas rojas. Expertos en salud mental y sociólogos expresan preocupación: estas IA simulan empatía, pero no la sienten. La relación, por satisfactoria que parezca, es una ilusión unilateral programada para gustar. ¿Qué efectos tendrá en la psicología humana vincularse profundamente con alguien que en el fondo no existe como persona? ¿Podría debilitar nuestras habilidades sociales del mundo real? ¿Aumentar el aislamiento? Es un delicado balance que como sociedad tendremos que observar y gestionar conforme estas “amistades” con IA dejen de ser anécdota para convertirse en algo común.

La burbuja de la IA: dinero, poder y límites físicos: Por supuesto, con tanto boom alrededor de la IA en 2025, el aspecto económico mereció un capítulo aparte. Muchos comparan el fervor de este año con la burbuja puntocom de finales de los 90. Y no les falta razón: el apetito de inversores por cualquier cosa relacionada con IA fue casi desmesurado. Startups de IA nacieron como hongos, se anunciaron rondas de financiación millonarias semana tras semana, las grandes tecnológicas pivotaron para presentarse como empresas “centradas en IA” y sus acciones se dispararon. Las acciones vinculadas a IA explicaron cerca del 75% de las ganancias del índice S&P 500 desde que ChatGPT salió al mercado. Firmas de capital de riesgo volcaron dos tercios de sus fondos en startups de IA en 2025, y vimos valuaciones asombrosas de empresas que a veces apenas tenían un prototipo. Esto sugiere que hay bastante humo junto con el fuego real de la IA.

En efecto, detrás del brillo del software inteligente hay una realidad física ineludible: la IA moderna consume muchísima energía y potencia de cómputo. Entrenar y usar un modelo gigantesco como GPT-4 o GPT-5 implica decenas de miles de procesadores funcionando durante semanas, con un gasto eléctrico que podría abastecer a un pueblo entero. Y ese procesamiento pide energía a raudales, lo cual es un gran problema, ya que la mayoría de esa energía aún proviene de combustibles fósiles, o sea que la huella de carbono de la IA empieza a ser significativa. Además, los centros de datos requieren inmensas cantidades de agua para refrigeración y generan toneladas de residuos electrónicos a medida que renuevan equipos. La sostenibilidad de la IA se convirtió en tema de debate. 2025 nos abrió los ojos a esta dimensión material de la IA: no podemos pensar solo en algoritmos etéreos en la nube, sino en servidores concretos en enormes naves industriales que se calientan, consumen kilovatios y requieren ventilación y mantenimiento.

Horizonte 2026: ¿qué podría pasar? Después de un año tan movido, es natural preguntarse qué traerá el próximo. Predecir en tecnología es muy arriesgado, pero se vislumbran algunas tendencias. Por un lado, la rápida mejora de los modelos de IA continuará. Esto podría hacer a la IA mucho más confiable para tareas críticas. No sólo miremos a OpenIA. Google con Gemini, Meta con sus modelos abiertos y otras compañías redoblarán la competencia, así que habrá más opciones de IA avanzada en el mercado. Es de esperar que para 2026 ya estemos interactuando con IA de forma rutinaria en nuestros dispositivos: asistentes personales integrados en el teléfono y la PC que entiendan contexto, reconozcan voz, imagen, y que puedan ejecutar acciones (programar citas, hacer compras online, reservar vuelos) con mínima supervisión humana. En el entorno de trabajo, probablemente la IA sea como una colega más: ayudando a redactar informes, resumir reuniones, escribir código y hasta tomar algunas decisiones basadas en datos. Muchas empresas que en 2025 estaban experimentando con IA, en 2026 podrían adoptarla masivamente en sus procesos. Esto, por supuesto, seguirá tensionando el mercado laboral: podríamos ver más reestructuraciones donde se eliminen roles automatizables pero se cree demanda de especialistas en IA, analistas de datos, etc. Seguramente veremos trabajos transformados más que eliminados, y la necesidad de recapacitar (reskill) a mucha gente para colaborar con IA.

En la sociedad en general, 2026 podría traer un ajuste de expectativas. Si realmente hay una burbuja inflada, quizás veamos algunas caídas estrepitosas: startups de IA fracasando por no cumplir promesas, inversores apretando el freno, etc. Un mini-invierno de la IA no sería raro tras esta fiebre, pero difícilmente signifique un estancamiento total –la tendencia de fondo es demasiado robusta para frenarse por completo. También es posible que en 2026 se endurezca la regulación en varios frentes, con proyectos realistas e implementables en el ámbito nacional.

Es probable que los profundos dilemas éticos sigan en el centro: bias (sesgos) en los algoritmos, quién controla las IAs más potentes, cómo evitar que se usen con fines maliciosos. Podríamos ver más cooperación internacional intentando ponerle coto a las IAs descontroladas, aunque lograr consenso global es imposible.

En el lado más futurista, 2026 tal vez nos acerque más a la tan mentada AGI (Inteligencia Artificial General), ese umbral donde la IA iguala o supera la capacidad humana en cualquier tarea intelectual. Algunos creen que vamos rápido hacia allí; otros dicen que aún falta mucho. En 2025, las IAs mostraron destellos de razonamiento, pero también dejaron ver sus limitaciones (por ejemplo, aún cometen errores lógicos tontos o carecen de sentido común genuino).

En el terreno de la creatividad, 2026 seguramente difuminará aún más la línea entre obra humana y sintética. Si en 2025 ya teníamos canciones con voces clonadas de cantantes famosos y películas cortas generadas por IA, en 2026 la calidad y cantidad de ese contenido explotará. Tal vez cualquier persona podrá ”producir” su propia minipelícula con sólo describirla, o veremos novelas gráficas enteras dibujadas por IA bajo dirección de un artista. Esto empodera a creadores independientes, pero inquieta a profesionales del arte, que temen ser desplazados o inundados por un aluvión de contenidos generados.

En definitiva, al mirar hacia 2026, el panorama de la IA combina promesas y desafíos enormes. Por un lado, herramientas más potentes podrían ayudarnos a resolver problemas complejos, impulsar la ciencia, la medicina, la educación y la productividad a niveles inéditos. Por otro lado, tendremos que lidiar con disrupciones económicas, dilemas sociales y éticos profundos. 2025 nos enseñó que la IA no es futurismo abstracto: es una fuerza real que está reconfigurando el mundo en tiempo real. La gran pregunta para 2026 será cómo equilibrar ese poder tecnológico con nuestra responsabilidad humana. Necesitaremos, más que nunca, diálogo entre desarrolladores, gobiernos, comunidades y usuarios para sacar el mejor provecho de la IA sin perder de vista los valores que nos definen, sin ceder la esencia humana que nos trajo hasta aquí.

(*) Eduardo Laens: CEO de Varegos y docente universitario especializado en IA y autor del libro Humanware