NVIDIA

LM Studio accelera le prestazioni degli LLM con GPU NVIDIA GeForce RTX e CUDA 12.8

Con lโ€™espansione continua dei casi dโ€™uso dellโ€™intelligenza artificiale, dalla sintesi automatica di testi agli agenti software personalizzati, cresce la richiesta, da parte di sviluppatori e appassionati, di soluzioni piรน veloci e flessibili per eseguire modelli linguistici di grandi dimensioni (LLM). Eseguirli in locale su PC dotati di GPU NVIDIA GeForce RTX garantisce inferenze ad alte prestazioni, maggiore privacy sui dati e pieno controllo sullโ€™uso e sullโ€™integrazione dellโ€™AI. Strumenti come LM Studio, disponibile in versione di prova gratuita, rendono questo approccio accessibile, permettendo di esplorare e utilizzare gli LLM direttamente sullโ€™hardware dellโ€™utente.LM Studio รจ oggi uno degli strumenti piรน diffusi per lโ€™inferenza LLM locale. Basato sul runtime ad alte prestazioniย  llama.cpp, consente di eseguire i modelli offline e puรฒ anche essere usato come endpoint API compatibile con OpenAI, ideale per integrarsi in flussi di lavoro personalizzati.

Con il rilascio della versione 0.3.15, LM Studio migliora sensibilmente le prestazioni su GPU RTX grazie al supporto di CUDA 12.8, riducendo i tempi di upload e migliorando la reattivitร . Lโ€™aggiornamento introduce anche nuove funzioni pensate per gli sviluppatori, come una gestione avanzata dei tool tramite il parametro โ€œtool_choiceโ€ e un editor riprogettato per i prompt di sistema.ย Questi miglioramenti portano LM Studio a offrire il throughput piรน alto mai registrato su PC RTX AI, garantendo risposte piรน rapide, unโ€™esperienza dโ€™uso piรน fluida e tool piรน potenti per costruire e integrare soluzioni IA in locale.ย 

LM Studio รจ progettato per offrire la massima flessibilitร , adatto tanto a chi vuole sperimentare occasionalmente quanto a chi cerca unโ€™integrazione completa con flussi di lavoro personalizzati. Gli utenti possono utilizzare unโ€™interfaccia chat desktop oppure attivare la modalitร  sviluppatore per accedere a un endpoint API compatibile con OpenAI, rendendo semplice collegare LLM locali ad applicazioni come VS Code o ad agenti desktop su misura.ย Un esempio concreto รจ lโ€™integrazione con Obsidian, lโ€™app per la gestione delle conoscenze basata su markdown. Grazie a plug-in sviluppati dalla community, come Text Generatore Smart Connections, รจ possibile generare contenuti, riassumere informazioni e interrogare note personali sfruttando LLM locali eseguiti con LM Studio. Questi plug-in si connettono direttamente al server locale, garantendo risposte rapide e private, senza bisogno del cloud. Il motore che accelera LM Studio รจ llama.cpp, un runtime open source progettato per garantire inferenze efficienti anche su hardware consumer. In collaborazione con le community di LM Studio e llama.cpp, NVIDIA ha introdotto una serie di ottimizzazioni pensate per sfruttare appieno la potenza delle GPU RTX.ย 

Le principali ottimizzazioni includono:ย 

  • Abilitazione dei grafici CUDA: Raggruppano piรน operazioni GPU in unโ€™unica chiamata CPU, riducendo il carico sulla CPU e aumentando il throughput del modello fino al 35%.
  • Kernel CUDA Flash Attention: aumenta il throughput fino al 15% migliorando il modo in cui gli LLM elaborano l’attenzione, un’operazione fondamentale nei modelli Transformer. Questa ottimizzazione consente finestre di contesto piรน lunghe senza aumentare i requisiti di memoria o di calcolo.
  • Supporto per le piรน recenti architetture RTX: l’aggiornamento di LM Studio a CUDA 12.8 garantisce la compatibilitร  con l’intera gamma di PC RTX AI, dalle GPU GeForce RTX serie 20 alle GPU NVIDIA Blackwell, offrendo agli utenti la flessibilitร  di scalare i flussi di lavoro AI locali dai laptop ai desktop di fascia alta.ย 

Con un driver compatibile, LM Studio si aggiorna automaticamente al runtime CUDA 12.8, riducendo sensibilmente i tempi di upload dei modelli e migliorando le prestazioni complessive. Questi miglioramenti garantiscono inferenze piรน fluide e risposte piรน rapide su tutta la linea di PC RTX AI, massimizzando la produttivitร  su qualsiasi configurazione, dai laptop ai desktop e alle workstation ad alte prestazioni.LM Studio offre preset per i modelli, supporta una vasta gamma di formati di quantizzazione e mette a disposizione controlli avanzati per sviluppatori, come il parametro โ€œtool_choiceโ€, per unโ€™inferenza ottimizzata e personalizzabile. Chi desidera contribuire allo sviluppo puรฒ partecipare attivamente tramite il repository GitHub di llama.cpp, che continua a evolversi grazie al lavoro congiunto della community e di NVIDIA, con miglioramenti costanti alle prestazioni.ย Ogni settimana, il blog RTX AI Garage propone nuovi contenuti e novitร  sullโ€™intelligenza artificiale sviluppati dalla community, con approfondimenti su microservizi NVIDIA NIM, AI Blueprints, agenti AI, flussi di lavoro creativi, digital humans, applicazioni per la produttivitร  e molto altro, pensati per utenti su PC e workstation AI.ย 

NVIDIA

ย 

V MENSILE
Clicca sulla copertina per leggere
NeoGeo Collector’s Bible Special Preview