Questo documento esplora la strategia della Ricompensa per la Novità (Novelty Search) all'interno del paradigma del Reinforcement Learning (RL), presentandola come un meccanismo cruciale per superare il problema degli "ottimi locali" e delle ricompense sparse in ambienti complessi. Tradizionalmente, la Ricompensa per la Novità agisce come motivazione intrinseca, spingendo l'Agente AI ad esplorare stati o sequenze di azioni mai viste prima, anziché massimizzare un obiettivo predefinito. Questa metodologia si è dimostrata fondamentale in campi classici come la Robotica (per l'apprendimento di skills generiche) e l'Intelligenza Artificiale nei Videogiochi (per l'esplorazione di ambienti vasti). Tuttavia, il suo potenziale più "bumbastico" risiede nelle applicazioni di frontiera, tra cui: 1) la Generazione di Sequenze in Chimica e Genomica, dove facilita la scoperta di proteine o molecole strutturalmente nuove; 2) l'Esplorazione di Strategie nel Trading Algoritmico, per identificare policy non convenzionali; e 3) la Diagnostica di Anomalie Strutturali, per trovare punti di guasto rari in sistemi complessi (come il Chip Design). Il documento conclude fornendo una bibliografia dettagliata che sostiene l'applicazione di questa strategia come fondamento per una scienza sperimentale autonoma e creativamente guidata dall'AI.
Dall'Ottimizzazione alla Scoperta Autonoma: Il Paradigma della Ricompensa per la Novità nel Reinforcement Learning e le sue Implicazioni nella Scienza di Frontiera / Sparavigna, Amelia Carolina. - ELETTRONICO. - (2025). [10.5281/zenodo.17908149]
Dall'Ottimizzazione alla Scoperta Autonoma: Il Paradigma della Ricompensa per la Novità nel Reinforcement Learning e le sue Implicazioni nella Scienza di Frontiera
Amelia Carolina Sparavigna
2025
Abstract
Questo documento esplora la strategia della Ricompensa per la Novità (Novelty Search) all'interno del paradigma del Reinforcement Learning (RL), presentandola come un meccanismo cruciale per superare il problema degli "ottimi locali" e delle ricompense sparse in ambienti complessi. Tradizionalmente, la Ricompensa per la Novità agisce come motivazione intrinseca, spingendo l'Agente AI ad esplorare stati o sequenze di azioni mai viste prima, anziché massimizzare un obiettivo predefinito. Questa metodologia si è dimostrata fondamentale in campi classici come la Robotica (per l'apprendimento di skills generiche) e l'Intelligenza Artificiale nei Videogiochi (per l'esplorazione di ambienti vasti). Tuttavia, il suo potenziale più "bumbastico" risiede nelle applicazioni di frontiera, tra cui: 1) la Generazione di Sequenze in Chimica e Genomica, dove facilita la scoperta di proteine o molecole strutturalmente nuove; 2) l'Esplorazione di Strategie nel Trading Algoritmico, per identificare policy non convenzionali; e 3) la Diagnostica di Anomalie Strutturali, per trovare punti di guasto rari in sistemi complessi (come il Chip Design). Il documento conclude fornendo una bibliografia dettagliata che sostiene l'applicazione di questa strategia come fondamento per una scienza sperimentale autonoma e creativamente guidata dall'AI.| File | Dimensione | Formato | |
|---|---|---|---|
|
novità.pdf
accesso aperto
Tipologia:
1. Preprint / submitted version [pre- review]
Licenza:
Creative commons
Dimensione
593.22 kB
Formato
Adobe PDF
|
593.22 kB | Adobe PDF | Visualizza/Apri |
Pubblicazioni consigliate
I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/11583/3005799
