Ethan Mollick acaba de publicar una nueva guía sobre cómo elegir y usar inteligencias artificiales. Su texto es claro, práctico y estimulante. Pero tras su aparente neutralidad hay un dilema que merece ser discutido: ¿qué significa realmente elegir una IA en 2025, cuando el 10 % de la humanidad ya la usa semanalmente? Escoger entre ChatGPT, Gemini o Claude no es una cuestión de gusto, sino de gobernanza y valores.
La guía de Mollick: un manual de supervivencia digital
Mollick parte de un dato revelador: la mayoría de las interacciones con IA no son charlas triviales, sino búsquedas de información y tareas profesionales. En su artículo An Opinionated Guide to Using AI Right Now – What AI to Use in Late 2025 (publicado en One Useful Thing, 19 de octubre de 2025), propone distinguir entre modelos gratuitos y avanzados, y sugiere una decisión sencilla: usa el que te guste y funcione. Esa aproximación es pragmática, pero también reduccionista. No todos los modelos son equivalentes en transparencia, seguridad o sostenibilidad.
Mollick clasifica a los actores principales en tres grupos: las grandes tecnológicas (OpenAI, Google, Anthropic), los sistemas híbridos (Microsoft Copilot, Perplexity, Grok) y los modelos abiertos (Mistral, DeepSeek, Qwen). Todos ellos compiten por el mismo espacio: la atención y los datos de los usuarios.
Cuatro grandes modelos, cuatro filosofías
La propia descripción de Mollick deja claro que los grandes modelos comerciales responden a filosofías distintas. Según la documentación oficial de OpenAI (GPT-5 System Card, 2025), Anthropic (Claude 4.5 Technical Overview, 2025) y Google DeepMind (Gemini 2.5 Overview, 2025), las diferencias más notables se observan en la política de privacidad, la multimodalidad y el acceso a datos externos.
| Modelo | Fortalezas | Debilidades | Transparencia |
|---|---|---|---|
| ChatGPT 5 (OpenAI) | Ecosistema completo, modo voz e imagen, excelente razonamiento | Política de datos poco clara, dependencia del plan de pago | Media |
| Claude 4.5 (Anthropic) | Excelente en documentos y privacidad, estructura clara | No genera imágenes o video | Alta |
| Gemini 2.5 / Deep Think (Google) | Búsqueda integrada, multimodalidad avanzada | Requiere cesión de datos para pleno rendimiento | Media-baja |
| Grok (xAI) | Rápido y potente, integrado en X | Baja transparencia y auditoría limitada | Baja |

Gobernar la inteligencia: el marco que falta
Mientras Mollick ofrece un mapa de herramientas, la regulación avanza con lentitud. La Unión Europea aprobó el AI Act (Reglamento 2024/1689), que establece categorías de riesgo y obligaciones de transparencia. A la vez, la UNESCO y el NIST han publicado directrices éticas (AI RMF 1.0, 2023), y la OCDE mantiene un observatorio global sobre políticas de IA. Sin embargo, ninguna de estas normas se impone automáticamente sobre los modelos comerciales.
En este contexto, tres principios deberían guiar la adopción profesional:
- Trazabilidad: saber cuándo y de dónde obtiene la IA sus fuentes.
- Opt-out verificable: permitir al usuario excluir sus datos sin perder capacidades.
- Interoperabilidad ética: compatibilidad entre modelos abiertos y cerrados bajo estándares comunes.
Sin estos mecanismos, la competencia actual perpetúa un oligopolio de conocimiento.
El coste invisible del progreso
La sofisticación tiene precio. Los modelos de “pensamiento extendido”, como GPT-5 Pro o Gemini DeepMind, requieren más potencia de cálculo y, por tanto, más energía. La International Energy Agency (IEA), en su informe Electricity 2024: Analysis and Forecast to 2026, advierte que el consumo eléctrico de los centros de datos de IA podría triplicarse antes de 2026. Esa huella ambiental apenas figura en las guías de uso cotidiano.
Si el futuro de la productividad digital depende de modelos energéticamente voraces, la innovación deja de ser neutra: se convierte en una decisión climática.
La alternativa abierta
Los modelos abiertos como Mistral, Qwen y DeepSeek representan una vía auditable y soberana. Mistral AI, en su iniciativa Open Models Initiative (2025), impulsa la independencia tecnológica europea. Qwen, de Alibaba Cloud, y DeepSeek AI reflejan estrategias asiáticas de control estatal y expansión. Su apertura democratiza el acceso, pero sin auditoría adecuada puede derivar en usos inseguros.
La tensión es clara: cerrar protege, abrir empodera. La solución pasa por marcos de gobernanza compartida.
Usar IA, un acto de gobernanza
Mollick enseña a usar IA. Nosotros deberíamos aprender a elegirla con criterio. Optar por un modelo u otro implica alinearse con un ecosistema de valores y responsabilidades. La inteligencia artificial no es solo una herramienta: es una infraestructura de poder.
El futuro dependerá menos de qué modelo piense mejor y más de quién establece las condiciones para pensar con ellos.
