
Intel actualiza OpenVINO con más modelos LLM y soporte optimizado para su hardware más reciente
por Edgar OteroIntel acaba de lanzar OpenVINO 2025.2, la nueva versión trimestral de su popular toolkit de inteligencia artificial open source, igual que AI PlayGround, que llega con mejoras tanto en compatibilidad como en rendimiento. Es evidente, por tanto, que el desarrollo de esta herramienta no se detiene.
Entre las novedades más destacadas está el soporte para una serie de nuevos modelos de lenguaje de gran tamaño (LLM), que ahora pueden ejecutarse en CPU, GPU e incluso en las NPUs más recientes de la marca. Algunos de los modelos añadidos en esta versión son: Phi-4, Mistral-7B-Instruct-v0.3, SD-XL Inpainting 0.1, Stable Diffusion 3.5 Large Turbo, Phi-4-reasoning, Qwen3 y Qwen2.5-VL-3B-Instruct.
Además, Intel ha estado trabajando en nuevas capacidades de generación de voz con inteligencia artificial, como un pipeline text-to-speech (TTS) basado en SpeechT5, así como un lector GGUF que facilita la integración con Llama.cpp y modelos basados en esta arquitectura.
El rendimiento también recibe un impulso importante en hardware reciente. OpenVINO 2025.2 está ahora optimizado para los nuevos procesadores Intel Core Ultra Series 2, las gráficas Intel Arc Battlemage (B-Series) y las plataformas Arrow Lake H, con mejor soporte para entornos Linux. También se activa por defecto la compresión de caché para CPUs en INT8 y se añade soporte FP16-NF4 en NPUs de Intel Lunar Lake para modelos de hasta 8.000 millones de parámetros.
Fin del Artículo. ¡Cuéntanos algo en los Comentarios!