OpenAI

OpenAI lancia i primi modelli open-weight dopo GPT-2

Secondo quanto svelato recentemente, con un importante passo avanti per il settore dell’intelligenza artificiale, OpenAI ha lanciato ufficialmente la sua prima serie di modelli open-weight, che segna una tappa fondamentale nell’introduzione della trasparenza e nella concessione di maggiore libertร  agli sviluppatori. I due nuovi modelli, gpt-oss-20b e gpt-oss-120b, sono la prima vera versione open-weight dell’azienda dopo GPT-2 nel 2019, e fino ad ora abbiamo assistito per anni a sistemi chiusi. Questi due strumenti sono disponibili per il download gratuito e possono essere eseguiti direttamente su qualsiasi hardware con memoria sufficiente, compresi i Mac con Apple Silicon, a indicare un cambiamento nell’approccio dell’azienda, poichรฉ gli sviluppatori possono eseguire modelli di IA localmente senza bisogno di server o API.

Il nostro obiettivo รจ che i nostri strumenti vengano utilizzati in modo sicuro, responsabile e democratico, massimizzando al contempo il vostro controllo sul loro utilizzo. Utilizzando OpenAI gpt-oss-120b e gpt-oss-20b, accettate di rispettare tutte le leggi applicabili.

Quindi, il linguaggio giuridico utilizzato dall’azienda di IA รจ chiaro: sebbene OpenAI stia aprendo le sue porte, รจ comunque determinata a rispettare le leggi. Ma al di lร  di queste clausole scritte in piccolo, questo passo รจ fondamentale perchรฉ, a differenza dei modelli dipendenti dall’API come ChatGPT, il nuovo sistema puรฒ funzionare localmente su macchine con risorse sufficienti. Gli sviluppatori possono creare applicazioni senza subire alcuna latenza o affrontare problemi di sorveglianza, poichรฉ si tratta di un’intelligenza artificiale grezza e fondamentale su cui avete il controllo completo.

Se vogliamo dare un’occhiata agli aspetti tecnici di questi modelli, sono piuttosto impressionanti. Il gpt-oss-20b รจ un modello denso con 20 miliardi di parametri, mentre il gpt-oss-120b รจ un modello MoE con 120 miliardi di parametri che consente una maggiore efficienza computazionale e un’inferenza inferiore. I modelli sono stati ulteriormente addestrati su un set di dati di 1,8 trilioni di token che include risorse con licenza e dati disponibili pubblicamente. Con una finestra di contesto di 128K token, entrambi i modelli sono in grado di gestire ragionamenti complessi e capacitร  agentiche.

OpenAI