Glossario AI

Da WikiAI.

Il Glossario AI è una risorsa per comprendere i termini e i concetti fondamentali nel campo dell'Intelligenza Artificiale. Qui troverai definizioni chiare e concise per aiutarti a navigare nel mondo dell'IA.

Termini del Glossario

Apprendimento Automatico (Machine Learning)

Un sottoinsieme dell'Intelligenza Artificiale che permette ai sistemi di imparare dai dati, identificare pattern e prendere decisioni con un intervento umano minimo.

Architettura Transformer

Transformer (in italiano, Trasformatore) è un'innovativa architettura di rete neurale artificiale introdotta da Google nel 2017 con il paper "Attention Is All You Need". Questa invenzione ha rivoluzionato il campo dell'elaborazione del linguaggio naturale (NLP) ed è diventata il fondamento di quasi tutti i moderni modelli di linguaggio di grandi dimensioni (LLM). La sua caratteristica più rivoluzionaria è l'eliminazione del tradizionale approccio "sequenziale" dei modelli precedenti, come le Reti Neurali Ricorrenti (RNN). Invece di elaborare una parola alla volta in ordine, il Transformer è in grado di considerare tutte le parole di una frase contemporaneamente. Il cuore dell'architettura è il meccanismo di Attenzione (in inglese, Attention Mechanism). Immaginiamo che il modello legga una frase come "Il cuoco ha preparato una torta deliziosa per il compleanno". Quando arriva alla parola "deliziosa", l'attenzione permette al modello di capire immediatamente che "deliziosa" si riferisce a "torta" e non a "compleanno". Funziona un po' come la nostra mente quando legge: non analizziamo ogni singola parola in isolamento, ma ci concentriamo sulle relazioni tra le parole per capirne il contesto e il significato. In sintesi, il meccanismo di attenzione assegna un "peso" o un'importanza maggiore a determinate parole di una frase rispetto ad altre, in base a quanto sono rilevanti tra loro. Questa capacità di elaborare l'intero contesto in un colpo solo offre due enormi vantaggi: Parallelizzazione: Permette di addestrare i modelli in modo molto più efficiente, utilizzando la potenza di calcolo delle moderne GPU per elaborare grandi quantità di dati in parallelo. Gestione del Contesto a Lungo Termine: Supera i limiti dei modelli precedenti, che spesso "dimenticavano" le prime parti di un testo lungo. Con l'attenzione, il Transformer mantiene una visione chiara e dettagliata di tutte le parti della sequenza. Grazie a queste innovazioni, il Transformer è diventato l'architettura di riferimento per lo sviluppo di modelli di IA Generativa come GPT-3, GPT-4, Google Gemini e Claude, che oggi sono in grado di comprendere e generare testi con una coerenza e una qualità senza precedenti.

Dataset

Un insieme di dati strutturati e organizzati, utilizzato per addestrare modelli di Apprendimento Automatico e Intelligenza Artificiale. La qualità e la dimensione del dataset sono cruciali per le prestazioni del modello.

GPT (Generative Pre-trained Transformer)

Una serie di modelli di linguaggio di grandi dimensioni (LLM) sviluppati da OpenAI.

GPT-3: Rilasciato nel 2020, è stato uno dei primi LLM a mostrare capacità impressionanti nella generazione di testo coerente su vasta scala.

GPT-3.5: Una serie di modelli successivi a GPT-3, spesso ottimizzati per compiti specifici o per migliorare le prestazioni, inclusa la versione che alimenta le prime iterazioni di ChatGPT.

GPT-4: Rilasciato nel 2023, rappresenta un significativo passo avanti rispetto ai suoi predecessori, con capacità migliorate di ragionamento, comprensione multimodale (accettando input di testo e immagini) e prestazioni superiori in una vasta gamma di benchmark. È il modello che alimenta le versioni più avanzate di ChatGPT.

Intelligenza Artificiale Costituzionale

IA Costituzionale (in inglese, Constitutional AI) è un metodo di addestramento per i modelli di linguaggio di grandi dimensioni (LLM) sviluppato da Anthropic. L'obiettivo è rendere i modelli più sicuri, utili e meno propensi a generare contenuti dannosi, senza dover fare affidamento esclusivamente sul feedback diretto di moderatori umani. Il processo si articola in due fasi principali: Generazione della Costituzione: Viene creata una serie di principi e regole etiche (la "costituzione") che guidano l'IA. Questi principi sono formulati in linguaggio naturale e coprono aspetti come la non-dannosità, la neutralità, il rispetto, ecc. Auto-correzione: L'IA viene addestrata per valutare le proprie risposte in base ai principi della costituzione. Se una risposta non è conforme, il modello genera una nuova risposta che si allinea meglio alle regole stabilite. Questo ciclo di auto-critica e auto-miglioramento permette al modello di imparare autonomamente a seguire le direttive etiche senza una supervisione umana costante. Questo metodo rappresenta un'alternativa all'approccio del Reinforcement Learning from Human Feedback (RLHF), offrendo un modo più scalabile e trasparente per l'allineamento etico dell'IA generativa.

Intelligenza Artificiale (Artificial Intelligence)

L'Intelligenza Artificiale (IA) è un campo dell'informatica che si occupa di creare sistemi e macchine in grado di simulare le capacità cognitive umane, come l'apprendimento, la risoluzione di problemi, il ragionamento e la percezione. L'obiettivo principale dell'IA è permettere alle macchine di compiere compiti che richiederebbero l'intelligenza umana, come riconoscere oggetti in un'immagine, comprendere il linguaggio naturale o prendere decisioni complesse.

Intelligenza Artificiale Generativa (Generative AI)

Un tipo di Intelligenza Artificiale capace di creare nuovi contenuti (testo, immagini, audio, video, codice) che non esistevano in precedenza, basandosi sui pattern appresi da vasti Dataset. Esempi includono ChatGPT e DALL-E.

Intelligenza Artificiale Generale (AGI - Artificial General Intelligence)

Un tipo ipotetico di Intelligenza Artificiale che possiede la capacità di comprendere, imparare e applicare l'intelligenza a una vasta gamma di problemi, in modo simile a un essere umano, piuttosto che essere limitata a un compito specifico.

Intelligenza Artificiale Conversazionale

L'Intelligenza Artificiale Conversazionale è un ramo dell'IA che si concentra sulla creazione di sistemi in grado di interagire con gli esseri umani utilizzando il linguaggio naturale. Questi sistemi, noti anche come chatbot o assistenti virtuali, sono progettati per comprendere, elaborare e rispondere alle domande e ai comandi degli utenti in modo coerente e utile. L'obiettivo è simulare una conversazione simile a quella umana, gestendo dialoghi complessi e fornendo informazioni, assistenza o eseguendo compiti specifici. Esempi comuni di IA conversazionale includono gli assistenti vocali come Google Assistant o Amazon Alexa, e i chatbot integrati in siti web e applicazioni di messaggisti

Modelli di Diffusione (Diffusion Models)

Una classe di modelli generativi di Apprendimento Automatico che imparano a creare dati (come immagini o audio) partendo da un input casuale (rumore) e trasformandolo gradualmente attraverso una serie di passaggi, "denoisificando" l'input fino a ottenere un output coerente e di alta qualità. Sono alla base di molti generatori di immagini AI come Midjourney e Stable Diffusion.

Modello di Linguaggio di Grande Scala (LLM - Large Language Model)

Una classe di modelli di Apprendimento Automatico addestrati su enormi quantità di dati testuali per comprendere, generare e manipolare il linguaggio umano. Sono alla base di applicazioni conversazionali come ChatGPT.

Sintesi Vocale

La Sintesi Vocale (in inglese, Text-to-Speech o TTS) è una tecnologia che converte un testo scritto in un discorso parlato. Il processo si basa sull'utilizzo di algoritmi e modelli linguistici per analizzare il testo e generare un output audio che ne riproduce il contenuto. I sistemi più avanzati possono variare il tono, l'intonazione e il ritmo della voce per renderla più naturale, quasi indistinguibile da quella di un essere umano. Questa tecnologia è ampiamente utilizzata in assistenti virtuali, lettori di schermo per persone con disabilità visive, sistemi di navigazione GPS e altre applicazioni.

Reinforcement Learning from Human Feedback (RLHF)

Una tecnica di addestramento utilizzata per affinare i modelli di Intelligenza Artificiale, in particolare i modelli di linguaggio. Implica l'uso del feedback umano per guidare il modello verso la generazione di risposte più utili, pertinenti e sicure.