{"id":847,"date":"2025-02-04T16:27:27","date_gmt":"2025-02-04T16:27:27","guid":{"rendered":"https:\/\/janusai.pro\/?p=847"},"modified":"2025-02-04T16:27:28","modified_gmt":"2025-02-04T16:27:28","slug":"how-good-is-deepseeks-janus-pro","status":"publish","type":"post","link":"https:\/\/janusai.pro\/it\/how-good-is-deepseeks-janus-pro\/","title":{"rendered":"Quanto \u00e8 buono l'Janus-Pro di DeepSeek?"},"content":{"rendered":"<div style=\"margin-top: 0px; margin-bottom: 0px;\" class=\"sharethis-inline-share-buttons\" ><\/div>\n<p>Alla vigilia del Festival di Primavera, \u00e8 stato rilasciato il modello DeepSeek-R1. Con la sua architettura RL pura, ha imparato dalle grandi innovazioni di CoT e supera le prestazioni di <a href=\"https:\/\/openai.com\/\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">ChatGPT<\/a> in matematica, codice e ragionamento logico.<\/p>\n\n\n\n<p>Inoltre, i pesi dei modelli open-source, i bassi costi di addestramento e i prezzi convenienti delle API hanno reso DeepSeek un successo su Internet, facendo addirittura crollare i prezzi delle azioni di NVIDIA e ASML per un certo periodo.<\/p>\n\n\n\n<p>Mentre esplode la popolarit\u00e0, DeepSeek ha anche rilasciato una versione aggiornata del modello multimodale di grandi dimensioni Janus (Giano), Janus-Pro, che eredita l'architettura unificata della precedente generazione di comprensione e generazione multimodale, e ottimizza la strategia di addestramento, scalando i dati di addestramento e le dimensioni del modello, portando prestazioni pi\u00f9 forti.<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img loading=\"lazy\" decoding=\"async\" width=\"1080\" height=\"427\" src=\"https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/56e80359-198e-4faf-981a-54b7dfe49f02.png\" alt=\"\" class=\"wp-image-850\" srcset=\"https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/56e80359-198e-4faf-981a-54b7dfe49f02.png 1080w, https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/56e80359-198e-4faf-981a-54b7dfe49f02-300x119.png 300w, https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/56e80359-198e-4faf-981a-54b7dfe49f02-1024x405.png 1024w, https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/56e80359-198e-4faf-981a-54b7dfe49f02-768x304.png 768w, https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/56e80359-198e-4faf-981a-54b7dfe49f02-18x7.png 18w\" sizes=\"auto, (max-width: 1080px) 100vw, 1080px\" \/><\/figure>\n\n\n\n<figure class=\"wp-block-image\"><img loading=\"lazy\" decoding=\"async\" width=\"1080\" height=\"522\" src=\"https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/af7da2cf-a17d-4ac3-95ba-42252fe1a481.png\" alt=\"\" class=\"wp-image-854\" srcset=\"https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/af7da2cf-a17d-4ac3-95ba-42252fe1a481.png 1080w, https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/af7da2cf-a17d-4ac3-95ba-42252fe1a481-300x145.png 300w, https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/af7da2cf-a17d-4ac3-95ba-42252fe1a481-1024x495.png 1024w, https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/af7da2cf-a17d-4ac3-95ba-42252fe1a481-768x371.png 768w, https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/af7da2cf-a17d-4ac3-95ba-42252fe1a481-18x9.png 18w\" sizes=\"auto, (max-width: 1080px) 100vw, 1080px\" \/><\/figure>\n\n\n\n<div id=\"ez-toc-container\" class=\"ez-toc-v2_0_82_2 counter-hierarchy ez-toc-counter ez-toc-grey ez-toc-container-direction\">\n<div class=\"ez-toc-title-container\">\n<p class=\"ez-toc-title\" style=\"cursor:inherit\">Indice dei contenuti<\/p>\n<span class=\"ez-toc-title-toggle\"><a href=\"#\" class=\"ez-toc-pull-right ez-toc-btn ez-toc-btn-xs ez-toc-btn-default ez-toc-toggle\" aria-label=\"Allinea la tabella dei contenuti\"><span class=\"ez-toc-js-icon-con\"><span class=\"\"><span class=\"eztoc-hide\" style=\"display:none;\">Toggle<\/span><span class=\"ez-toc-icon-toggle-span\"><svg style=\"fill: #999;color:#999\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" class=\"list-377408\" width=\"20px\" height=\"20px\" viewbox=\"0 0 24 24\" fill=\"none\"><path d=\"M6 6H4v2h2V6zm14 0H8v2h12V6zM4 11h2v2H4v-2zm16 0H8v2h12v-2zM4 16h2v2H4v-2zm16 0H8v2h12v-2z\" fill=\"currentColor\"><\/path><\/svg><svg style=\"fill: #999;color:#999\" class=\"arrow-unsorted-368013\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"10px\" height=\"10px\" viewbox=\"0 0 24 24\" version=\"1.2\" baseprofile=\"tiny\"><path d=\"M18.2 9.3l-6.2-6.3-6.2 6.3c-.2.2-.3.4-.3.7s.1.5.3.7c.2.2.4.3.7.3h11c.3 0 .5-.1.7-.3.2-.2.3-.5.3-.7s-.1-.5-.3-.7zM5.8 14.7l6.2 6.3 6.2-6.3c.2-.2.3-.5.3-.7s-.1-.5-.3-.7c-.2-.2-.4-.3-.7-.3h-11c-.3 0-.5.1-.7.3-.2.2-.3.5-.3.7s.1.5.3.7z\"\/><\/svg><\/span><\/span><\/span><\/a><\/span><\/div>\n<nav><ul class='ez-toc-list ez-toc-list-level-1' ><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-1\" href=\"https:\/\/janusai.pro\/it\/how-good-is-deepseeks-janus-pro\/#Janus-Pro\" >Janus-Pro<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-2\" href=\"https:\/\/janusai.pro\/it\/how-good-is-deepseeks-janus-pro\/#Model_architecture\" >Modello di architettura<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-3\" href=\"https:\/\/janusai.pro\/it\/how-good-is-deepseeks-janus-pro\/#Training_strategy\" >Strategia di formazione<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-4\" href=\"https:\/\/janusai.pro\/it\/how-good-is-deepseeks-janus-pro\/#Training_data_scaling\" >Scala dei dati di addestramento<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-5\" href=\"https:\/\/janusai.pro\/it\/how-good-is-deepseeks-janus-pro\/#Model_scaling\" >Scala del modello<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-6\" href=\"https:\/\/janusai.pro\/it\/how-good-is-deepseeks-janus-pro\/#Model_evaluation\" >Valutazione del modello<\/a><\/li><\/ul><\/nav><\/div>\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Janus-Pro\"><\/span>Janus-Pro<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p><a href=\"https:\/\/huggingface.co\/deepseek-ai\/Janus-Pro-7B\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Janus-Pro<\/a> \u00e8 un modello linguistico multimodale unificato (MLLM) in grado di elaborare simultaneamente compiti di comprensione multimodale e di generazione, cio\u00e8 di comprendere il contenuto di un'immagine e di generare testo.<\/p>\n\n\n\n<p>Disaccoppia i codificatori visivi per la comprensione e la generazione multimodale (cio\u00e8, vengono utilizzati tokenizer diversi per l'ingresso della comprensione delle immagini e per l'ingresso e l'uscita della generazione delle immagini) e li elabora utilizzando un trasformatore autoregressivo unificato.<\/p>\n\n\n\n<p>Come modello avanzato di comprensione e generazione multimodale, \u00e8 una versione aggiornata del precedente modello Janus.<\/p>\n\n\n\n<p>Nella mitologia romana, Giano (Janus) \u00e8 un dio guardiano bifronte che simboleggia la contraddizione e la transizione. Ha due facce, il che suggerisce anche che il modello Giano pu\u00f2 comprendere e generare immagini, il che \u00e8 molto appropriato. Quindi, che cosa ha aggiornato esattamente PRO?<\/p>\n\n\n\n<p>Janus, come piccolo modello di 1.3B, \u00e8 pi\u00f9 simile a una versione di anteprima che a una versione ufficiale. Esplora la comprensione e la generazione multimodale unificata, ma presenta molti problemi, come effetti di generazione di immagini instabili, grandi deviazioni dalle istruzioni dell'utente e dettagli inadeguati.<\/p>\n\n\n\n<p>La versione Pro ottimizza la strategia di addestramento, aumenta il set di dati di addestramento e fornisce un modello pi\u00f9 ampio (7B) tra cui scegliere, pur fornendo un modello 1B.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Model_architecture\"><\/span>Modello di architettura<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p><a href=\"https:\/\/huggingface.co\/deepseek-ai\/Janus-Pro-7B\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Jaus-Pro e Janus<\/a> sono identici in termini di architettura del modello. (Solo 1,3B! Janus unifica la comprensione e la generazione multimodale)<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img loading=\"lazy\" decoding=\"async\" width=\"1080\" height=\"571\" src=\"https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/60356ab0-3c6e-4017-9eba-7ee44e0a1006.png\" alt=\"\" class=\"wp-image-851\" srcset=\"https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/60356ab0-3c6e-4017-9eba-7ee44e0a1006.png 1080w, https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/60356ab0-3c6e-4017-9eba-7ee44e0a1006-300x159.png 300w, https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/60356ab0-3c6e-4017-9eba-7ee44e0a1006-1024x541.png 1024w, https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/60356ab0-3c6e-4017-9eba-7ee44e0a1006-768x406.png 768w, https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/60356ab0-3c6e-4017-9eba-7ee44e0a1006-18x10.png 18w\" sizes=\"auto, (max-width: 1080px) 100vw, 1080px\" \/><\/figure>\n\n\n\n<p>Il principio di base del progetto consiste nel disaccoppiare la codifica visiva per supportare la comprensione e la generazione multimodale. Janus-Pro codifica separatamente l'immagine originale e il testo in ingresso, estrae caratteristiche ad alta dimensionalit\u00e0 e le elabora attraverso un trasformatore autoregressivo unificato.<\/p>\n\n\n\n<p>La comprensione multimodale delle immagini utilizza SigLIP per codificare le caratteristiche dell'immagine (codificatore blu nella figura precedente), mentre il compito di generazione utilizza il tokenizer VQ per discretizzare l'immagine (codificatore giallo nella figura precedente). Infine, tutte le sequenze di caratteristiche vengono inviate all'LLM per l'elaborazione.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Training_strategy\"><\/span>Strategia di formazione<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>In termini di strategia di addestramento, Janus-Pro ha apportato ulteriori miglioramenti. La vecchia versione di Janus utilizzava una strategia di addestramento a tre fasi, in cui la Fase I addestrava l'adattatore di ingresso e la testa di generazione delle immagini per la comprensione e la generazione delle immagini, la Fase II eseguiva un pre-addestramento unificato e la Fase III metteva a punto il codificatore di comprensione su questa base. (La strategia di addestramento di Janus \u00e8 illustrata nella figura seguente).<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img loading=\"lazy\" decoding=\"async\" width=\"1080\" height=\"381\" src=\"https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/dbf6954f-1a18-4572-a452-ec995c8af71a.png\" alt=\"\" class=\"wp-image-849\" srcset=\"https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/dbf6954f-1a18-4572-a452-ec995c8af71a.png 1080w, https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/dbf6954f-1a18-4572-a452-ec995c8af71a-300x106.png 300w, https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/dbf6954f-1a18-4572-a452-ec995c8af71a-1024x361.png 1024w, https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/dbf6954f-1a18-4572-a452-ec995c8af71a-768x271.png 768w, https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/dbf6954f-1a18-4572-a452-ec995c8af71a-18x6.png 18w\" sizes=\"auto, (max-width: 1080px) 100vw, 1080px\" \/><\/figure>\n\n\n\n<p>Tuttavia, questa strategia utilizza il metodo PixArt per suddividere l'addestramento della generazione da testo a immagine nella fase II, con conseguente bassa efficienza computazionale.<\/p>\n\n\n\n<p>A tal fine, abbiamo esteso il tempo di addestramento della Fase I e aggiunto l'addestramento con i dati di ImageNet, in modo che il modello possa modellare efficacemente le dipendenze dai pixel con parametri LLM fissi. Nella fase II, abbiamo scartato i dati di ImageNet e abbiamo utilizzato direttamente i dati della coppia testo-immagine per l'addestramento, migliorando cos\u00ec l'efficienza dell'addestramento. Inoltre, nella fase III abbiamo modificato il rapporto tra i dati (dati multimodali:solo testo:grafo visivo-semantico da 7:3:10 a 5:1:4), migliorando la comprensione multimodale e mantenendo le capacit\u00e0 di generazione visiva.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Training_data_scaling\"><\/span>Scala dei dati di addestramento<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>Janus-Pro scala anche i dati di addestramento di Janus in termini di comprensione multimodale e generazione visiva.<\/p>\n\n\n\n<p>Comprensione multimodale: I dati della fase II di pre-addestramento si basano su DeepSeek-VL2 e comprendono circa 90 milioni di nuovi campioni, tra cui dati di didascalie di immagini (come YFCC) e dati di comprensione di tabelle, grafici e documenti (come Docmatix).<\/p>\n\n\n\n<p>La fase III di messa a punto supervisionata introduce ulteriormente la comprensione di MEME, i dati di dialogo cinesi, ecc. per migliorare le prestazioni del modello nell'elaborazione multi-task e le capacit\u00e0 di dialogo.<\/p>\n\n\n\n<p>Generazione visiva: Le versioni precedenti utilizzavano dati reali di bassa qualit\u00e0 ed elevato rumore, che influivano sulla stabilit\u00e0 e sull'estetica delle immagini generate dal testo.<\/p>\n\n\n\n<p>Janus-Pro introduce circa 72 milioni di dati estetici sintetici, portando a 1:1 il rapporto tra dati reali e dati sintetici. Gli esperimenti hanno dimostrato che i dati sintetici accelerano la convergenza del modello e migliorano significativamente la stabilit\u00e0 e la qualit\u00e0 estetica delle immagini generate.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Model_scaling\"><\/span>Scala del modello<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>Janus Pro estende la dimensione del modello a 7B, mentre la versione precedente di Janus utilizzava 1,5B DeepSeek-LLM per verificare l'efficacia del disaccoppiamento della codifica visiva. Gli esperimenti dimostrano che un LLM pi\u00f9 grande accelera significativamente la convergenza della comprensione multimodale e della generazione visiva, verificando ulteriormente la forte scalabilit\u00e0 del metodo.<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img loading=\"lazy\" decoding=\"async\" width=\"864\" height=\"352\" src=\"https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/a19590e2-1805-493d-85e3-09c9b8e2274b.png\" alt=\"\" class=\"wp-image-848\" srcset=\"https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/a19590e2-1805-493d-85e3-09c9b8e2274b.png 864w, https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/a19590e2-1805-493d-85e3-09c9b8e2274b-300x122.png 300w, https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/a19590e2-1805-493d-85e3-09c9b8e2274b-768x313.png 768w, https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/a19590e2-1805-493d-85e3-09c9b8e2274b-18x7.png 18w\" sizes=\"auto, (max-width: 864px) 100vw, 864px\" \/><\/figure>\n\n\n\n<figure class=\"wp-block-image\"><img loading=\"lazy\" decoding=\"async\" width=\"1080\" height=\"536\" src=\"https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/c78ed17c-6e07-43ef-bfda-ae287f597bba.png\" alt=\"\" class=\"wp-image-852\" srcset=\"https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/c78ed17c-6e07-43ef-bfda-ae287f597bba.png 1080w, https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/c78ed17c-6e07-43ef-bfda-ae287f597bba-300x149.png 300w, https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/c78ed17c-6e07-43ef-bfda-ae287f597bba-1024x508.png 1024w, https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/c78ed17c-6e07-43ef-bfda-ae287f597bba-768x381.png 768w, https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/c78ed17c-6e07-43ef-bfda-ae287f597bba-18x9.png 18w\" sizes=\"auto, (max-width: 1080px) 100vw, 1080px\" \/><\/figure>\n\n\n\n<p>L'esperimento utilizza DeepSeek-LLM (1,5B e 7B, che supporta una sequenza massima di 4096) come modello linguistico di base. Per il compito di comprensione multimodale, si utilizza SigLIP-Large-Patch16-384 come codificatore visivo, la dimensione del dizionario del codificatore \u00e8 di 16384, il multiplo di downsampling dell'immagine \u00e8 di 16 e entrambi gli adattatori di comprensione e generazione sono MLP a due strati.<\/p>\n\n\n\n<p>La fase II dell'addestramento utilizza una strategia di arresto precoce a 270K, tutte le immagini sono regolate uniformemente a una risoluzione di 384\u00d7384 e il confezionamento della sequenza viene utilizzato per migliorare l'efficienza dell'addestramento. Janus-Pro \u00e8 stato addestrato e valutato utilizzando HAI-LLM. Le versioni 1.5B\/7B sono state addestrate su 16\/32 nodi (8\u00d7Nvidia A100 40GB per nodo) per 9\/14 giorni rispettivamente.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Model_evaluation\"><\/span>Valutazione del modello<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>Janus-Pro \u00e8 stato valutato separatamente nella comprensione e nella generazione multimodale. Nel complesso, la comprensione pu\u00f2 essere leggermente debole, ma \u00e8 considerata eccellente tra i modelli open source della stessa dimensione (si suppone che sia in gran parte limitata dalla risoluzione fissa dell'input e dalle capacit\u00e0 OCR).<\/p>\n\n\n\n<p>L'Janus-Pro-7B ha ottenuto un punteggio di 79,2 nel test di benchmark MMBench, che si avvicina al livello dei modelli open source di primo livello (la stessa dimensione di InternVL2.5 e Qwen2-VL \u00e8 di circa 82 punti). Tuttavia, si tratta di un buon miglioramento rispetto alla precedente generazione di Janus.<\/p>\n\n\n\n<p>In termini di generazione di immagini, il miglioramento rispetto alla generazione precedente \u00e8 ancora pi\u00f9 significativo ed \u00e8 considerato un livello eccellente tra i modelli open source. Il punteggio di Janus-Pro nel test di benchmark GenEval (0,80) supera anche modelli come DALL-E 3 (0,67) e Stable Diffusion 3 Medium (0,74).<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img loading=\"lazy\" decoding=\"async\" width=\"1080\" height=\"827\" src=\"https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/47aa92e1-b474-4874-956e-db210da9d349.png\" alt=\"\" class=\"wp-image-853\" srcset=\"https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/47aa92e1-b474-4874-956e-db210da9d349.png 1080w, https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/47aa92e1-b474-4874-956e-db210da9d349-300x230.png 300w, https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/47aa92e1-b474-4874-956e-db210da9d349-1024x784.png 1024w, https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/47aa92e1-b474-4874-956e-db210da9d349-768x588.png 768w, https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/47aa92e1-b474-4874-956e-db210da9d349-16x12.png 16w\" sizes=\"auto, (max-width: 1080px) 100vw, 1080px\" \/><\/figure>\n\n\n\n<figure class=\"wp-block-image\"><img loading=\"lazy\" decoding=\"async\" width=\"1080\" height=\"744\" src=\"https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/38de369b-7f1f-4159-83a7-5f411e816d55.png\" alt=\"\" class=\"wp-image-855\" srcset=\"https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/38de369b-7f1f-4159-83a7-5f411e816d55.png 1080w, https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/38de369b-7f1f-4159-83a7-5f411e816d55-300x207.png 300w, https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/38de369b-7f1f-4159-83a7-5f411e816d55-1024x705.png 1024w, https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/38de369b-7f1f-4159-83a7-5f411e816d55-768x529.png 768w, https:\/\/janusai.pro\/wp-content\/uploads\/2025\/02\/38de369b-7f1f-4159-83a7-5f411e816d55-18x12.png 18w\" sizes=\"auto, (max-width: 1080px) 100vw, 1080px\" \/><\/figure>","protected":false},"excerpt":{"rendered":"<p>Alla vigilia della Festa di Primavera, \u00e8 stato rilasciato il modello DeepSeek-R1. Con la sua architettura RL pura, ha imparato dalle grandi innovazioni di CoT e supera ChatGPT in matematica, codice e ragionamento logico. Inoltre, i pesi del modello open-source, i bassi costi di addestramento e i prezzi economici delle API hanno reso DeepSeek un successo su Internet, anche...<\/p>","protected":false},"author":2,"featured_media":704,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_kadence_starter_templates_imported_post":false,"_kad_post_transparent":"","_kad_post_title":"","_kad_post_layout":"","_kad_post_sidebar_id":"","_kad_post_content_style":"","_kad_post_vertical_padding":"","_kad_post_feature":"","_kad_post_feature_position":"","_kad_post_header":false,"_kad_post_footer":false,"footnotes":""},"categories":[1],"tags":[],"class_list":["post-847","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-uncategorized"],"_links":{"self":[{"href":"https:\/\/janusai.pro\/it\/wp-json\/wp\/v2\/posts\/847","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/janusai.pro\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/janusai.pro\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/janusai.pro\/it\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/janusai.pro\/it\/wp-json\/wp\/v2\/comments?post=847"}],"version-history":[{"count":1,"href":"https:\/\/janusai.pro\/it\/wp-json\/wp\/v2\/posts\/847\/revisions"}],"predecessor-version":[{"id":856,"href":"https:\/\/janusai.pro\/it\/wp-json\/wp\/v2\/posts\/847\/revisions\/856"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/janusai.pro\/it\/wp-json\/wp\/v2\/media\/704"}],"wp:attachment":[{"href":"https:\/\/janusai.pro\/it\/wp-json\/wp\/v2\/media?parent=847"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/janusai.pro\/it\/wp-json\/wp\/v2\/categories?post=847"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/janusai.pro\/it\/wp-json\/wp\/v2\/tags?post=847"}],"curies":[{"name":"parola chiave","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}