L'Ai generativa e i modelli linguistici "piccoli"
Le principali aziende di intelligenza artificiale, che hanno investito miliardi di dollari nello sviluppo di modelli linguistici di grandi dimensioni, stanno ora concentrando la loro attenzione su modelli più piccoli per aumentare i profitti. Colossi tecnologici come Apple, Microsoft, Meta e Google hanno recentemente lanciato nuovi modelli di IA con un numero inferiore di "parametri" rispetto ai loro predecessori più grandi, pur mantenendo elevate capacità di elaborazione del linguaggio naturale. Questi modelli più compatti sono progettati per ridurre i costi e il consumo energetico necessari per l'addestramento e l'esecuzione, e vengono promossi come alternative personalizzabili in grado di preservare i dati sensibili degli utenti. Microsoft, ad esempio, ha rilasciato il modello Phi-3-small, con 7 miliardi di parametri, che secondo l'azienda supera le prestazioni di GPT-3.5 di OpenAI.