Ollama permite usar IA local gratis: Gemma 3 de Google funciona en PCs con 8 GB de RAM

Softcatalà publica una guía para instalar Ollama y ejecutar modelos de IA en Windows, macOS y Linux sin nube ni suscripción. Recomienda Gemma 3 de Google y Mistral Small según la RAM disponible.

09 de mayo de 2026 a las 13:28h
Ollama permite usar IA local gratis: Gemma 3 de Google funciona en PCs con 8 GB de RAM
Ollama permite usar IA local gratis: Gemma 3 de Google funciona en PCs con 8 GB de RAM

Pagar veinte euros cada mes por acceder a servicios de inteligencia artificial en la nube es la norma actual. Esta cuota recurrente se justifica a menudo por la potencia de los modelos remotos, que pueden ser entre 80 y 150 veces más grandes en cantidad de parámetros que sus equivalentes locales. Sin embargo, esta brecha técnica no implica que el usuario común deba renunciar al control de sus datos ni al ahorro económico.

La ejecución local elimina costes y dependencia de internet

Correr estos sistemas en el propio dispositivo rompe con la lógica de suscripción perpetua. Los datos procesados permanecen en el disco duro o en el servidor privado de la empresa, bajo estricto control del usuario. Esta soberanía digital evita además los riesgos asociados a la transmisión constante de información sensible a través de la red.

Softcatalà ha publicado una guía detallada para instalar Ollama, un software de código abierto diseñado para gestionar y ejecutar modelos de IA en Windows, macOS y Linux. La herramienta incluye una interfaz gráfica web que permite dialogar con el modelo en lenguaje natural sin depender de servicios externos. Esta aproximación democratiza el acceso a la tecnología al eliminar barreras técnicas complejas.

Gemma 3 lidera las recomendaciones para hardware doméstico

La elección del modelo depende directamente de la memoria RAM disponible en el equipo. Con 8 gigabytes de memoria, la organización recomienda instalar el modelo Gemma 3 de Google en su versión de 4.000 millones de parámetros. Quienes dispongan de 16 gigabytes pueden optar por la variante de 12.000 millones de parámetros de la misma familia.

Esta familia de modelos constituye la recomendación principal de Softcatalà para el uso general en catalán. Le sigue en preferencias el modelo europeo Mistral Small. Para tareas específicas de audio, la entidad también ofrece instrucciones para implementar Whisper de OpenAI, adaptado para funcionar correctamente en lengua catalana.

La industria del hardware móvil ya integra estas capacidades de forma nativa. Los teléfonos Pixel de Google transcriben audio en tiempo real sin necesidad de conexión a la red. De manera similar, la Galaxy AI de Samsung incorpora edición de fotos, filtrado de llamadas y traducción instantánea mediante el modelo Gemini Nano, integrado directamente en el sistema operativo.

Apple Silicon aprovecha la arquitectura de memoria unificada

Los ordenadores Mac equipados con chips Apple Silicon M1, M2, M3 y posteriores utilizan una arquitectura de memoria unificada compartida entre CPU y GPU. Este diseño facilita la ejecución eficiente de modelos de lenguaje en local. Apple Intelligence ampliará progresivamente estas capacidades de procesamiento local en sus dispositivos durante los próximos ciclos de actualización.

El cambio hacia el procesamiento local transforma al usuario de mero consumidor a administrador de su propia infraestructura inteligente.

Sobre el autor
Redacción
Ver biografía