Bienvenidos una vez más a iaordenadores.com, tu rincón de confianza para entender hacia dónde va el hardware en la era de la inteligencia artificial. Si eres usuario de macOS, es muy probable que en las últimas semanas te hayas hecho la misma pregunta que inunda los foros de Reddit y las comunidades de desarrolladores: «¿Puedo conectar una tarjeta gráfica externa (eGPU) a mi Mac con chip M para correr modelos de Inteligencia Artificial más potentes en local?»
La explosión de modelos de lenguaje abierto (LLMs) como Llama 3, Mistral o los recientes avances en generación de imágenes con Stable Diffusion, ha despertado el hambre por el hardware extremo. Todos queremos ejecutar nuestra propia IA sin depender de la nube, sin pagar suscripciones mensuales y, lo más importante, manteniendo la privacidad de nuestros datos a salvo en nuestro propio disco duro.
Pero cuando miramos hacia el ecosistema de Apple, nos encontramos con un muro de cristal. Hoy vamos a desmontar los mitos, a explicarte por qué tu Mac ya es una bestia para la IA y qué hardware necesitas realmente comprar si quieres llevar tu setup al siguiente nivel. 🚀
🛑 El mito de las eGPU en Apple Silicon: ¿Por qué Apple dice «no»?
Vamos a quitarnos la tirita rápido: No, actualmente no puedes conectar una eGPU tradicional (como una Nvidia RTX 4090 o una AMD Radeon RX 7900 XTX) a un Mac con procesador Apple Silicon (M1, M2, M3, M4) y usarla para acelerar procesos de Inteligencia Artificial de forma nativa.
Durante la era de los procesadores Intel, los usuarios de Mac estaban acostumbrados a comprar carcasas externas Thunderbolt, meter una tarjeta gráfica potente y darle una segunda vida a sus portátiles para edición de vídeo o renderizado 3D. Sin embargo, con la transición a la arquitectura ARM (Apple Silicon), Apple eliminó este soporte de raíz. ¿Por qué?
- La arquitectura de Memoria Unificada (UMA): En un PC tradicional, la CPU tiene su propia memoria RAM y la GPU tiene su memoria VRAM. Los datos tienen que viajar constantemente a través de la placa base (bus PCIe) entre ambas, creando cuellos de botella. Apple rediseñó esto: en los chips M, la CPU, la GPU y el Motor Neuronal (NPU) comparten exactamente el mismo bloque de memoria de alta velocidad. Meter una GPU externa por un cable Thunderbolt rompería esta eficiencia milimétrica.
- El ancho de banda de Thunderbolt: Por muy rápido que sea Thunderbolt 4 o Thunderbolt 5 (hasta 80 o 120 Gbps), ni se acerca a los cientos o miles de Gigabytes por segundo (GB/s) a los que se comunica la memoria unificada soldada directamente junto al procesador de Apple. Para entrenar o inferir modelos de IA pesados, el ancho de banda externo es simplemente demasiado lento.
- El ecosistema cerrado de drivers: Nvidia y Apple rompieron relaciones hace años. No existen drivers modernos de Nvidia (el estándar absoluto para IA gracias a su tecnología CUDA) para macOS.
Entonces, si no puedo usar una eGPU… ¿estoy condenado a quedarme atrás en la revolución de la IA si uso Mac? Absolutamente no. De hecho, tienes una ventaja secreta. 😎
🧠 La ventaja secreta de Apple: VRAM a precio de «saldo»
En el mundo de la Inteligencia Artificial local, la potencia bruta del procesador es importante, pero hay un rey indiscutible: La Memoria VRAM.
Para ejecutar un modelo de lenguaje de forma decente en tu ordenador, necesitas que el modelo quepa íntegramente en la memoria de la tarjeta gráfica.
- Un modelo pequeño (7B parámetros) necesita unos 6-8 GB de VRAM.
- Un modelo mediano (70B parámetros) puede exigir entre 35 y 40 GB de VRAM.
- Modelos gigantes… mejor ni hablemos.
En el mundo de los PC con Windows y Nvidia, conseguir grandes cantidades de VRAM es prohibitivo. La todopoderosa RTX 4090 (que cuesta más de 2.000€) «solo» tiene 24 GB de VRAM. Si quieres 40 GB, tienes que saltar a tarjetas profesionales que cuestan más que un coche de segunda mano.
Aquí es donde brilla tu Mac. Como la memoria es unificada, la GPU de tu Mac puede usar casi toda la memoria RAM del sistema como si fuera VRAM. Si tienes un Mac Studio con 128 GB o 192 GB de memoria unificada… ¡Felicidades! Tienes el equivalente a una máquina de IA que en el mundo PC te costaría decenas de miles de euros. Puedes cargar modelos inmensos en local que harían sudar sangre a un PC gaming de gama alta.
⚙️ MLX: El «CUDA» de Apple que lo cambia todo
Tener hardware potente no sirve de nada sin el software adecuado. Nvidia domina el mercado gracias a CUDA, su lenguaje de programación que todos los desarrolladores de IA utilizan. Apple sabía que tenía que reaccionar, y lo hizo lanzando MLX.
MLX es un framework de aprendizaje automático de código abierto diseñado específicamente por los ingenieros de Apple para exprimir al máximo los chips M. Lo que hace MLX es coger esos modelos creados para Nvidia y optimizarlos para que corran volando en la CPU, GPU y NPU de tu Mac de forma combinada y aprovechando la memoria unificada. Gracias a MLX, comunidades en Hugging Face suben diariamente versiones optimizadas de los mejores modelos listos para correr en macOS con un rendimiento espectacular.
🛒 Guía de Compras: Hardware esencial para exprimir la IA en tu Mac
Como hemos visto en iaordenadores.com, no necesitas una eGPU, pero sí necesitas el equipo adecuado. Si tu viejo Mac Intel o tu M1 con 8GB de RAM se está quedando corto para tus experimentos con IA, aquí tienes las mejores opciones de hardware que puedes comprar hoy mismo en Amazon para dar el salto, además de los accesorios imprescindibles.
1. El Santo Grial del almacenamiento: Unidades SSD de alta velocidad 💾
Los modelos de Inteligencia Artificial pesan mucho. Un solo modelo descargado puede ocupar de 5 a 50 GB. Si empiezas a probar diferentes versiones cuantizadas (GGUF, Safetensors), el disco duro interno de tu Mac se llenará en cuestión de días. Como ampliar el SSD de Apple de fábrica es carísimo, la solución inteligente es un SSD externo ultrarrápido por Thunderbolt.
Recomendación de iaordenadores.com:
- LIBERA LAS VELOCIDADES DE USB4. Trabaja a un ritmo extraordinario en unidades USB externas con nuestra interfaz USB4 de …
- COMPATIBLE CON VERSIONES ANTERIORES. Permite almacenar y mover datos también entre tus dispositivos con USB 3.2 y USB 2….
- UNA POTENTE PROTECCIÓN. Ayuda a proteger tus datos mientras te desplazas, con una resistente carcasa de silicona y un ch…
- Por qué lo recomendamos: Con velocidades de lectura/escritura de hasta 2000 MB/s, no notarás la diferencia entre cargar un modelo de lenguaje desde este disco externo o desde el SSD interno de tu Mac. 4TB te dan espacio de sobra para tu propia biblioteca de modelos LLM y Stable Diffusion. Además, es resistente a golpes, ideal si usas un MacBook Pro en movimiento.
2. El «Plan B» para usuarios de Mac: El servidor de IA en red 🖥️
Si por tu trabajo necesitas usar software que es estrictamente dependiente de CUDA (Nvidia) y no puedes usar MLX, la solución no es una eGPU para tu Mac. La solución real y profesional que usan muchos desarrolladores es montar un pequeño PC secundario con una tarjeta Nvidia, conectarlo a la red de tu casa y acceder a su potencia desde tu Mac mediante una API local o SSH.
Recomendación de iaordenadores.com:
- GPU NVIDIA GEFORCE RTX 4060 TI: la 4060 está dotada de la avanzada arquitectura Ada Lovelace, que ofrece una capacidad s…
- REFRIGERACIÓN DUAL TORX FAN 4.0 – La tecnología TORX Fan 4.0 incorpora 2 ventiladores y ZERO FROZR (modo 0 RPM). El disi…
- DISEÑO ESPECTACULAR – Un robusto panel trasero con diseño de flujo pasante refuerza la estructura. En el interior hay un…
- GeForce RTX 5060 Ti 16G VENTUS 3X OC
- Por qué lo recomendamos: Como te explicamos antes, para la Inteligencia Artificial la cantidad de memoria (VRAM) es mucho más importante que la velocidad pura en juegos. Esta versión específica de la RTX 4060 Ti es una joya oculta porque ofrece 16 GB de VRAM a un precio muy contenido. Es la tarjeta perfecta si vas a montar un PC secundario barato para que actúe como tu «servidor de IA» con LM Studio u Ollama, dándote espacio de sobra para cargar modelos de lenguaje potentes en red local.
3. La inversión definitiva: Mac Studio M2 Max / M2 Ultra 🍏
Si estás en el ecosistema Apple, no quieres complicaciones, no quieres montar servidores y simplemente quieres darle al botón de «ejecutar» y que la IA vuele con modelos gigantescos, necesitas Memoria Unificada a raudales.
Recomendación de iaordenadores.com:
- Discos Duros modelo APPLE MAC STUDIO 27 M2 MAX CHIP WITH 12CORE CPU + 30CORE GPU 32GB 512SSD
- APPLE MAC STUDIO 27 M2 MAX CHIP WITH 12CORE CPU + 30CORE GPU 32GB 512SSD de la marca Apple
- Apple. Los productos de esta marca están fabricados con los materiales de la mejor calidad.
- Por qué lo recomendamos: Este es el sweet spot (punto dulce) actual. Aunque 32GB es el punto de entrada para modelos medianos-grandes, el chip M2 Max con su bestial ancho de banda de memoria pulveriza a cualquier portátil del mercado en tareas de inferencia de IA. Es compacto, silencioso y, gracias a MLX, es una inversión de futuro que envejecerá maravillosamente bien a medida que el software de Apple siga optimizándose.
(Nota: Los enlaces anteriores son de afiliados. Si compras a través de ellos, en iaordenadores.com recibimos una pequeña comisión sin coste extra para ti, lo que nos ayuda a seguir creando contenido técnico y sin publicidad invasiva).
🛠️ Cómo empezar hoy mismo sin gastar dinero
Si ya tienes un Mac con Apple Silicon (M1, M2, M3 o M4) y al menos 16 GB de RAM, no necesitas comprar nada para empezar a trastear con la IA local hoy mismo. Te recomiendo encarecidamente que descargues LM Studio u Ollama.
Ambas son aplicaciones gratuitas que se instalan como cualquier otro programa en macOS. Te permiten buscar modelos directamente en su interfaz, descargarlos y abrir una ventana de chat muy similar a ChatGPT, pero que funciona 100% desconectada de internet y procesada por el hardware de tu Mac.
Busca modelos que terminen en «GGUF» (un formato optimizado) y asegúrate de elegir una versión que quepa en tu memoria RAM. Por ejemplo, si tienes 16GB de RAM, descarga modelos que pesen unos 8 o 10 GB como máximo, para dejar espacio libre para que el sistema operativo respire.
💡 El veredicto final: Hacia dónde vamos
La fantasía de conectar una carcasa externa con una bestial tarjeta gráfica a un Mac ha muerto, pero sinceramente, no la necesitamos. La estrategia de Apple es clara: integrar la IA directamente en el núcleo del sistema a través del silicio personalizado y la memoria unificada de altísima velocidad.
Mientras que en el mundo del PC los usuarios sufren dolores de cabeza por el límite de VRAM de sus tarjetas gráficas, los usuarios de Mac tenemos la capacidad de escalar nuestra memoria de formas que Nvidia no permite en el mercado de consumo.
Las «eGPU» son cosa del pasado. El futuro de la Inteligencia Artificial local en el ecosistema de Apple pasa por la Memoria Unificada masiva y el increíble esfuerzo de la comunidad Open Source adaptando modelos a través del framework MLX.
¿Qué opinas tú? ¿Te has planteado montar un servidor PC secundario con Nvidia, o vas a exprimir la memoria unificada de tu Mac al máximo? ¡Déjanos tus dudas en los comentarios y nos vemos en el próximo artículo de iaordenadores.com! 👇


















Deja una respuesta