Mejora de modelos de lenguaje grandes (LLMs)

Un recorrido por este tipo de inteligencia artificial. Donde estábamos y donde estamos ahora

Luismon

5/1/20248 min read

Mejora de modelos de lenguaje grandes (LLMs)

La nueva generación de LLMs ha visto avances notables en capacidades, eficiencia y multimodalidad. OpenAI lanzó GPT-4o (“omni”) en mayo 2024, un modelo multimodal que procesa texto, imágenes y audio nativamente​(en.wikipedia.org). GPT-4o obtuvo resultados de vanguardia en reconocimiento de voz y traducción, y ofrece un contexto ultra largo (hasta 128k tokens) (​en.wikipedia.org). En julio 2024 apareció GPT-4o Mini, versión reducida (~8.000 millones de parámetros) mucho más barata y rápida para aplicaciones masivas​ (en.wikipedia.org). Asimismo, Anthropic presentó en marzo 2024 la familia Claude 3 (modelos Haiku, Sonnet, Opus). Estos modelos mejoraron la velocidad (Haiku es el más rápido y costo-eficiente, Sonnet es 2× más rápido que Claude 2)​(anthropic.com) y añadieron capacidades de visión avanzadas (pueden procesar fotos, gráficos y diagramas con gran fluidez)​ (anthropic.com). Google DeepMind anunció en diciembre de 2024 Gemini 2.0, su modelo más capaz hasta la fecha: nativo multimodal con salida de imagen y audio e integración de herramientas externas​blog.google. En el ámbito open-source, Meta liberó LLaMA 3.1 en julio de 2024 con versiones pre entrenadas e instruccionales hasta 405.000 millones de parámetros –el mayor modelo abierto disponible– acercándose en desempeño a los mejores cerrados​ (ibm.com). En paralelo se ha ampliado el soporte a múltiples idiomas (GPT-4o cubre más de 50 idiomas (​en.wikipedia.org) y se experimenta con distilación y cuantización para reducir el costo computacional. En conjunto, estos avances consolidan el “boom” de los LLMs hacia sistemas cada vez más potentes, eficientes y capaces de entender distintos tipos de datos.

Aplicaciones innovadoras

Descubrimiento de fármacos

La IA está transformando el descubrimiento de medicamentos, agilizando etapas tradicionales muy costosas. Por ejemplo, Terray Therapeutics (EE. UU.) opera laboratorios automatizados donde robots generan diariamente 50 TB de datos experimentales de interacciones a nanoescala entre proteínas y moléculas, que sirven para entrenar modelos generativos de fármacos​ (infobae.com). Según McKinsey, la IA ofrece una “oportunidad única en un siglo” para la industria farmacéutica (​infobae.com). En estas plataformas se diseña digitalmente una molécula candidata, se sintetiza y prueba su efecto sobre la proteína objetivo; luego los resultados (éxitos y fracasos) retroalimentan al modelo, acelerando iterativamente el diseño de compuestos eficientes​ (infobae.com). Varias startups especializadas (p. ej. Xaira, Valence) usan arquitecturas generativas condicionadas para proponer ligandos y optimizarlos rápidamente. Grandes farmacéuticas (BMS, GSK, Calico/Alphabet) ya se asocian con estos proyectos, aportando financiación y recursos en etapas clave​ (infobae.cominfobae.com). El objetivo es reducir tanto el tiempo como el costo (hoy ~10–15 años y mil millones USD por fármaco) de preclínica, para llevar nuevos tratamientos a ensayos clínicos con años menos de espera​ (infobae.com).

Ciencia de materiales

La IA también acelera la descubierta de nuevos materiales con propiedades a medida. Un equipo de SLAC/Stanford demostró en julio 2024 un método basado en IA para “experimentos autónomos” (self-driving labs): algoritmos que seleccionan qué mediciones hacer a continuación para explorar el espacio de materiales de forma óptima​ (www6.slac.stanford.edu). Este enfoque toma objetivos complejos (p. ej. sintetizar nanopartículas con un conjunto de propiedades específicas) y automáticamente traduce esas metas en una estrategia inteligente de adquisición de datos​ (www6.slac.stanford.edu). El resultado es una navegación mucho más eficiente por entre las decenas de miles de millones de posibles compuestos. Según los investigadores, esta técnica acelera dramáticamente la “descubierta dirigida” de materiales para aplicaciones en cambio climático, computación cuántica o incluso para uso farmacéutico (​www6.slac.stanford.eduwww6.slac.stanford.edu). Todos los datos de cada experimento se incorporan en el modelo (basado en algoritmos bayesianos), de modo que el sistema aprende y mejora con cada iteración​ (www6.slac.stanford.edu). Además, al ser código abierto, estas herramientas permiten a laboratorios en todo el mundo adoptar estrategias similares. En resumen, la IA está reduciendo tiempos y costos al identificar rápidamente condiciones de síntesis y composición para nuevos materiales avanzados.

Creatividad asistida por IA

En el ámbito creativo, modelos generativos se consolidan como asistentes para artistas, escritores y músicos. Por ejemplo, el modelo DALL·E 3 (OpenAI, nov 2023) traduce descripciones textuales complejas en imágenes de alta fidelidad: “comprende mucho más matiz y detalle” que versiones anteriores​openai.com. Esto ha democratizado la ilustración: usuarios comunes pueden generar escenas fotorrealistas o estilizadas con solo escribir lo que imaginan. Simultáneamente, Google presentó en abril de 2025 el Music AI Sandbox, con su modelo Lyria 2, un conjunto de herramientas experimentales para músicos y productores (​deepmind.google). Por ejemplo, la función “Create” permite al usuario indicar género, tono o instrumentos deseados y genera fragmentos musicales acordes a la descripción​ (deepmind.googledeepmind.google). Estas plataformas facilitan “romper bloqueos creativos”: un compositor puede obtener inspiraciones melódicas o texturas nuevas para enriquecer sus piezas. En conjunto, las IA generativas actúan como un nuevo “pincel probabilístico” para el arte y la música, ampliando la expresividad humana.

Uno de los avances más destacados en IA creativa es la generación de imágenes desde texto. Por ejemplo, DALL·E 3 puede transformar ideas escritas en ilustraciones detalladas (openai.com). En la imagen anterior (creada por IA) vemos un paisaje tradicional japonés con cerezos en flor, resultado de alimentar al modelo con una escena descrita en lenguaje natural. Esta integración de IA en herramientas de diseño gráfico y marketing está permitiendo a empresas y creadores acelerar la producción artística sin renunciar a la originalidad.

Asimismo, la IA se adentra en la música. Google DeepMind describe la IA como “una parte poderosa de este nuevo kit de herramientas creativo” para músicos​ (deepmind.google). En Music AI Sandbox, los usuarios pueden pulsar “Create” y escribir qué tipo de sonido desean generar. Con estas indicaciones la IA crea ideas musicales —ya sean instrumentales o vocales— que los artistas pueden refinar. Esto les permite explorar direcciones inéditas: por ejemplo, probar instrumentos adicionales en una pieza o continuar una canción existente con armonías sugeridas automáticamente​ (deepmind.googledeepmind.google). Estas aplicaciones muestran cómo la IA asistida potencia la creatividad humana, transformándose en colaboradora en lugar de reemplazar al artista.

Robótica e inteligencia artificial embebida

En robótica, los avances recientes apuntan a robots más autónomos y versátiles gracias a IA integrada. Un ejemplo es el humanoide Atlas de Boston Dynamics: en marzo de 2025 la compañía anunció que lo equipa con el nuevo chip NVIDIA Jetson Thor, un procesador de borde compacto y eficiente​ (bostondynamics.com). Gracias a este hardware, Atlas puede ejecutar modelos de IA multimodales complejos directamente en el robot (visión por cámara, procesamiento de lenguaje, control motor) sin depender de conexión remota. Además, Boston Dynamics utiliza la plataforma abierta NVIDIA Isaac Lab para entrenar políticas de locomoción y manipulación en simulaciones realistas, acelerando el aprendizaje de habilidades complejas.

Boston Dynamics ha integrado la unidad Jetson Thor en Atlas para mejorar sus capacidades de IA en tiempo real​(bostondynamics.com). En la imagen se aprecia el robot Atlas equipado con sensores; el poderoso chip interno le permite, por ejemplo, procesar datos visuales y de movimiento de forma simultánea y reactiva. Estos avances apuntan a robots capaces de entender su entorno (mediante visión por IA) y tomar decisiones dinámicas, acercándonos a máquinas autónomas útiles en entornos industriales o de rescate.

Paralelamente, la IA embebida crece en dispositivos cotidianos. Por ejemplo, Qualcomm presentó en octubre 2024 el chip Snapdragon 8 Elite para smartphones, que incorpora nuevos núcleos “Oryon” inspirados en sus diseños de portátiles. Este chip fue rediseñado para manejar tareas generativas de IA (imágenes, texto, traducción) directamente en el móvil​ (reuters.com). Fabricantes como Samsung y Xiaomi han anunciado su adopción. Gracias a ello, aplicaciones de IA intensiva pueden ejecutarse sobre la marcha sin latencia de red. En resumen, la tendencia es que tanto robots avanzados como dispositivos Edge (móviles, cámaras, sensores IoT) incluyan aceleradores de IA dedicados. Esto permite que el aprendizaje automático y el razonamiento ocurra al instante en el propio hardware –una pieza clave para la robótica colaborativa y la Internet de las cosas inteligente.

Ética y regulación de IA

El marco legal y ético de la IA ha evolucionado notablemente en los últimos años. La Unión Europea promulgó en diciembre de 2023 el Reglamento de IA (AI Act), que entró en vigor el 1 de agosto de 2024 (​commission.europa.eu). Esta ley crea un sistema común en todos los Estados miembros, basado en niveles de riesgo. Sistemas de “alto riesgo” (por ejemplo, software médico o de selección de personal con IA) deben cumplir requisitos estrictos: entrenamiento con datos de alta calidad, evaluación de riesgos, transparencia y supervisión humana​(commission.europa.eu). En cambio, usos considerados inaceptables (como sistemas de “puntuación social” por parte de gobiernos) quedan prohibidos​ (commission.europa.eu). Otro aspecto relevante es la transparencia: se exige etiquetar el contenido generado por IA y que los chatbots identifiquen que son máquinas. Estas medidas buscan proteger los derechos fundamentales (salud, privacidad, no discriminación) mientras se fomenta el despliegue responsable de la IA.

En Estados Unidos, la Administración Biden emitió en octubre de 2023 una orden ejecutiva para promover un desarrollo de IA “seguro, protegido y fiable”​ (bidenwhitehouse.archives.gov). El texto obliga a las empresas que entrenen modelos de IA muy potentes a compartir resultados de sus pruebas de seguridad con el gobierno federal​(bidenwhitehouse.archives.gov). También encarga al NIST y al Departamento de Seguridad Nacional definir estándares de pruebas rigurosas antes de publicar un modelo en producción (​bidenwhitehouse.archives.gov). Para combatir fraudes y desinformación, la orden impulsa la creación de guías de autenticación de contenido, incluyendo marcas de agua digitales para material generado por IA ​(bidenwhitehouse.archives.gov). Además, se enfatiza la investigación en privacidad (IA con datos protegidos) y programas de ciberseguridad basados en IA. Estas iniciativas, junto con marcos voluntarios (como los Principios de la IA de la OCDE o la “Carta de Derechos de la IA” propuesta por la Casa Blanca), reflejan una clara tendencia global: regular la IA para salvaguardar valores éticos y sociales sin impedir la innovación. Otros países (China, Canadá, etc.) avanzan en normativas similares, haciendo del equilibrio entre avance tecnológico y responsabilidad un objetivo prioritario.

Tendencias emergentes y tecnologías clave

Hacia 2025 comienzan a consolidarse varias tendencias tecnológicas en IA. Una de las más discutidas es la llegada de la IA como agente autónomo (“agentic AI”): sistemas que no solo responden a un prompt, sino que planean y ejecutan múltiples pasos de forma independiente. Por ejemplo, se desarrollan agentes de IA que realizan tareas secuenciales (reservar viajes, gestionar inventarios) integrando distintos modelos y herramientas​ (sloanreview.mit.edu). Aunque sigue habiendo retos (errores por generación de palabra siguiente), estos agentes ganan terreno en entornos controlados. También se observa un renovado interés en medir el retorno de inversión de proyectos de IA generativa: las empresas ya no se conforman con prototipos llamativos, sino que buscan evaluar su impacto económico real​ (sloanreview.mit.edu). Esto implica validar científicamente cuánto aceleran procesos de negocio o mejoran la productividad.

Otra tendencia es la importancia creciente de los datos no estructurados (texto libre, imágenes, sonido) en la analítica empresarial. La IA generativa ha puesto de nuevo en foco volúmenes masivos de datos previamente ignorados, ya que ahora pueden explotarse con redes profundas​ (sloanreview.mit.edu). En la práctica, esto se traduce en herramientas de minería de texto a gran escala, análisis de video con IA, y sistemas que integran múltiples modalidades (visión, habla, sensor). Finalmente, se profundiza la colaboración humano-IA: modelos “de propósito general” se configuran como copilotos (en docencia, asistencia médica, programación) más versátiles, mientras surge el debate sobre gobernanza, interpretabilidad y formación de talento en IA. En conjunto, el 2025 promete consolidar la IA como infraestructura transversal: potentes agentes conversacionales, cómputo en el borde y entornos adaptativos serán la norma, siempre dentro de los marcos éticos y normativos que la sociedad exija.