Nuove iniziative da parte di IBM nel tentativo di mantenere la sua rilevanza in un campo altamente competitivo.
I nuovi modelli, chiamati modelli della serie Granite, sembrano essere modelli linguistici standard di grandi dimensioni (LLM) sulla falsariga di GPT-4 e ChatGPT di OpenAI, in grado di riassumere, analizzare e generare testo. IBM ha fornito pochissimi dettagli su Granite, rendendo impossibile un confronto con i modelli LLM concorrenti, compresi quelli di IBM stessa.
Tuttavia, l’azienda dichiara che rivelerà ben presto i dati utilizzati per addestrare i modelli, nonché i passaggi utilizzati per filtrare ed elaborare tali dati.
“Questi nuovi modelli della serie IBM Granite sono stati sviluppati utilizzando dati curati e di qualità aziendale piuttosto che dati raccolti pubblicamente”. ha dichiarato l’azienda.
Tra le novità, IBM sta lanciando Tuning Studio, uno strumento che consente agli utenti di adattare i modelli di intelligenza artificiale generativa ai propri dati.
Utilizzando Tuning Studio, i clienti di IBM Watsonx possono mettere a punto i modelli per nuovi compiti con un numero di esempi che va da 100 a 1.000. Una volta specificato un compito e forniti esempi etichettati nel formato di dati richiesto, gli utenti possono distribuire il modello tramite un’API da IBM Cloud.
Un altro aspetto di Watsonx.ai è il generatore di dati sintetici per i dati tabellari, ovvero le raccolte di righe e colonne che si trovano nei database relazionali. In un comunicato stampa IBM sostiene che, generando dati sintetici da schemi di dati personalizzati e da set di dati interni, le aziende possono utilizzare il generatore per estrarre informazioni per l’addestramento e la messa a punto dei modelli di intelligenza artificiale con “rischi ridotti” (anche se non è chiaro cosa si intenda per “rischio ridotto”).
Leggi le altre novità: IBM rolls out new generative AI features and models