Portada » Qué modelo de IA elegir en 2025: lecciones (y silencios) del artículo de Ethan Mollick
Publicado en

Qué modelo de IA elegir en 2025: lecciones (y silencios) del artículo de Ethan Mollick


Ethan Mollick acaba de publicar una nueva guía sobre cómo elegir y usar inteligencias artificiales. Su texto es claro, práctico y estimulante. Pero tras su aparente neutralidad hay un dilema que merece ser discutido: ¿qué significa realmente elegir una IA en 2025, cuando el 10 % de la humanidad ya la usa semanalmente? Escoger entre ChatGPT, Gemini o Claude no es una cuestión de gusto, sino de gobernanza y valores.

La guía de Mollick: un manual de supervivencia digital

Mollick parte de un dato revelador: la mayoría de las interacciones con IA no son charlas triviales, sino búsquedas de información y tareas profesionales. En su artículo An Opinionated Guide to Using AI Right Now – What AI to Use in Late 2025 (publicado en One Useful Thing, 19 de octubre de 2025), propone distinguir entre modelos gratuitos y avanzados, y sugiere una decisión sencilla: usa el que te guste y funcione. Esa aproximación es pragmática, pero también reduccionista. No todos los modelos son equivalentes en transparencia, seguridad o sostenibilidad.

Mollick clasifica a los actores principales en tres grupos: las grandes tecnológicas (OpenAI, Google, Anthropic), los sistemas híbridos (Microsoft Copilot, Perplexity, Grok) y los modelos abiertos (Mistral, DeepSeek, Qwen). Todos ellos compiten por el mismo espacio: la atención y los datos de los usuarios.

Cuatro grandes modelos, cuatro filosofías

La propia descripción de Mollick deja claro que los grandes modelos comerciales responden a filosofías distintas. Según la documentación oficial de OpenAI (GPT-5 System Card, 2025), Anthropic (Claude 4.5 Technical Overview, 2025) y Google DeepMind (Gemini 2.5 Overview, 2025), las diferencias más notables se observan en la política de privacidad, la multimodalidad y el acceso a datos externos.

ModeloFortalezasDebilidadesTransparencia
ChatGPT 5 (OpenAI)Ecosistema completo, modo voz e imagen, excelente razonamientoPolítica de datos poco clara, dependencia del plan de pagoMedia
Claude 4.5 (Anthropic)Excelente en documentos y privacidad, estructura claraNo genera imágenes o videoAlta
Gemini 2.5 / Deep Think (Google)Búsqueda integrada, multimodalidad avanzadaRequiere cesión de datos para pleno rendimientoMedia-baja
Grok (xAI)Rápido y potente, integrado en XBaja transparencia y auditoría limitadaBaja
logos modelos IA

Gobernar la inteligencia: el marco que falta

Mientras Mollick ofrece un mapa de herramientas, la regulación avanza con lentitud. La Unión Europea aprobó el AI Act (Reglamento 2024/1689), que establece categorías de riesgo y obligaciones de transparencia. A la vez, la UNESCO y el NIST han publicado directrices éticas (AI RMF 1.0, 2023), y la OCDE mantiene un observatorio global sobre políticas de IA. Sin embargo, ninguna de estas normas se impone automáticamente sobre los modelos comerciales.

En este contexto, tres principios deberían guiar la adopción profesional:

  1. Trazabilidad: saber cuándo y de dónde obtiene la IA sus fuentes.
  2. Opt-out verificable: permitir al usuario excluir sus datos sin perder capacidades.
  3. Interoperabilidad ética: compatibilidad entre modelos abiertos y cerrados bajo estándares comunes.

Sin estos mecanismos, la competencia actual perpetúa un oligopolio de conocimiento.

El coste invisible del progreso

La sofisticación tiene precio. Los modelos de “pensamiento extendido”, como GPT-5 Pro o Gemini DeepMind, requieren más potencia de cálculo y, por tanto, más energía. La International Energy Agency (IEA), en su informe Electricity 2024: Analysis and Forecast to 2026, advierte que el consumo eléctrico de los centros de datos de IA podría triplicarse antes de 2026. Esa huella ambiental apenas figura en las guías de uso cotidiano.

Si el futuro de la productividad digital depende de modelos energéticamente voraces, la innovación deja de ser neutra: se convierte en una decisión climática.

La alternativa abierta

Los modelos abiertos como Mistral, Qwen y DeepSeek representan una vía auditable y soberana. Mistral AI, en su iniciativa Open Models Initiative (2025), impulsa la independencia tecnológica europea. Qwen, de Alibaba Cloud, y DeepSeek AI reflejan estrategias asiáticas de control estatal y expansión. Su apertura democratiza el acceso, pero sin auditoría adecuada puede derivar en usos inseguros.

La tensión es clara: cerrar protege, abrir empodera. La solución pasa por marcos de gobernanza compartida.

Usar IA, un acto de gobernanza

Mollick enseña a usar IA. Nosotros deberíamos aprender a elegirla con criterio. Optar por un modelo u otro implica alinearse con un ecosistema de valores y responsabilidades. La inteligencia artificial no es solo una herramienta: es una infraestructura de poder.

El futuro dependerá menos de qué modelo piense mejor y más de quién establece las condiciones para pensar con ellos.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *