A medida que los modelos de IA se convierten cada vez más en productos básicos, las nuevas empresas se apresuran a crear capas de software que se superpongan a ellos. Un participante interesante en este espacio es OsaurioEl servidor LLM de código abierto personalizado de Apple que permite a los usuarios moverse entre diferentes modelos de IA locales, ya sea localmente o en la nube, manteniendo todos sus archivos y herramientas en su propio hardware.
Osaurus evolucionó a partir de una idea para un Compañero de IA de escritorioDinoki, uno de los fundadores de Osaurus. terence pae se describe como una especie de “Clippy impulsado por IA”. Los clientes de Dinoki le preguntaron por qué deberían comprar la aplicación si aún tenían que pagar por los tokens, unidades de uso cobradas por las empresas de inteligencia artificial para procesar comandos y generar respuestas.
Esto hizo que Pae pensara más profundamente en ejecutar la IA localmente.
“Así es como comenzó Osaurus”, dijo a TechCrunch por teléfono Pae, anteriormente ingeniero de software en Tesla y Netflix. La idea, explica, es intentar ejecutar el asistente de IA localmente. “Puedes hacer casi cualquier cosa en tu Mac localmente, como explorar archivos, acceder al navegador, acceder a la configuración del sistema. Creo que esta sería una excelente manera de posicionar a Osaurus como una IA personal para individuos”.
Pae comenzó a fabricar el dispositivo en público como un proyecto de código abiertoagregando funciones y corrigiendo errores a lo largo del camino.
Hoy en día, Osaurus puede conectarse de manera flexible con modelos de IA alojados localmente o proveedores de nube como OpenAI y Anthropic. Los usuarios pueden elegir libremente qué modelos de IA utilizan y almacenar otros aspectos de la experiencia de IA en su propio hardware, como la propia memoria del modelo o sus archivos y herramientas.
Teniendo en cuenta que los diferentes modelos de IA tienen diferentes puntos fuertes, la ventaja de este sistema es que los usuarios pueden cambiar al modelo de IA que mejor se adapte a sus necesidades.
Esta estructura convierte a Osaurus en lo que se llama un “arnés”: una capa de control que conecta varios modelos, herramientas y flujos de trabajo de IA a través de una única interfaz, similar a herramientas como OpenClaw o Hermes. Sin embargo, la diferencia es que estas herramientas suelen estar dirigidas a desarrolladores que saben utilizar el terminal. Y a veces, como en el caso de OpenClaw, pueden introducir problemas de seguridad y lagunas de las que preocuparse.
Mientras tanto, Osaurus ofrece una interfaz fácil de usar que los consumidores pueden usar y aborda los problemas de seguridad ejecutando cosas en una zona de pruebas virtual aislada por hardware. Esto limita la IA a un cierto alcance, manteniendo su computadora y sus datos seguros.
Por supuesto, la práctica de ejecutar modelos de IA en su máquina aún está en sus inicios, dado que requiere muchos recursos y depende del hardware. Para ejecutar el modelo local, su sistema requiere al menos 64 GB de RAM. Para ejecutar modelos más grandes, como DeepSeek v4, Pae recomienda un sistema con alrededor de 128 GB de RAM.
Pero Pae cree que la necesidad de IA local disminuirá con el tiempo.
“Puedo ver el potencial, porque la inteligencia por vatio -que es como una métrica para la IA local- ha aumentado significativamente. La IA local está en su propia curva de innovación. El año pasado, la IA local apenas podía completar una oración, pero hoy en día puede ejecutar herramientas, escribir código, acceder a su navegador y ordenar cosas de Amazon… Está mejorando cada vez más”, afirmó.
Actualmente, Osaurus puede ejecutar MiniMax M2.5, Gemma 4, Qwen3.6, GPT-OSS, Llama, DeepSeek V4 y otros modelos. También admite modelos básicos en dispositivos Apple, conjunto de modelos LFM en dispositivos Liquid AI y, en la nube, puede conectarse a OpenAI, Anthropic, Gemini, xAI/Grok, Venice AI, OpenRouter, Ollama y LM Studio.
Como servidor MCP (Protocolo de contexto modelo) completo, también puede dar acceso a sus herramientas a clientes compatibles con MCP. Además, se entrega con más de 20 complementos nativos para correo, calendario, visión, uso de macOS, XLSX, PPTX, navegador, música, Git, sistema de archivos, búsqueda, recuperación y más.
Recientemente, Osaurus se actualizó para incluir también capacidades de voz.
Desde que se lanzó el proyecto hace casi un año, se ha descargado 112.000 veces, según su sitio web. Esta aplicación compite con otras herramientas que le permiten ejecutar modelos localmente, por ejemplo Convertirse, Venganza, Estudios LMy otros, pero ofrece un conjunto diferente de características y también se presenta como una opción más fácil de usar para quienes no son desarrolladores.
Actualmente, los fundadores de Osaurus (incluido el cofundador Sam Yoo) participan en la aceleradora de startups Alliance, con sede en Nueva York. También están pensando en su próximo paso, que podría implicar ofrecer Osaurus a empresas, como aquellas en los campos legal o de atención médica, donde administrar un LLM local podría abordar los problemas de privacidad.
A medida que aumenta el poder de los modelos de IA locales, el equipo cree que esto podría reducir la demanda de centros de datos de IA.
“Estamos viendo un crecimiento explosivo en el espacio de la IA, donde (los proveedores de la nube de IA) están teniendo que ampliar su escala utilizando centros de datos e infraestructura, pero no sentimos que la sociedad esté realmente viendo los beneficios de la IA local”, dijo Pae. “En lugar de depender de la nube, pueden usar Mac Studio localmente, y ese Mac Studio usará mucha menos energía. Aún tienes las capacidades de la nube, pero no dependerás de un centro de datos para poder ejecutar esa IA”, agregó.
Cuando compra a través de enlaces en nuestros artículos, es posible que ganemos una pequeña comisión. Esto no afecta nuestra independencia editorial.



