
LM Studio y CUDA 12.8: la inferencia de LLMs se acelera en los PCs con GPU RTX
La inteligencia artificial generativa no para de expandirse, y con ella crecen las necesidades de rendimiento y privacidad por parte de desarrolladores, investigadores y entusiastas. Ejecutar modelos de lenguaje (LLM) localmente, en lugar de depender de servicios en la nube, se ha convertido en una opción cada vez más atractiva. En este escenario, LM Studio, una herramienta gratuita y de