{"id":607,"date":"2025-01-28T08:08:27","date_gmt":"2025-01-28T08:08:27","guid":{"rendered":"https:\/\/janusai.pro\/?p=607"},"modified":"2025-01-28T08:08:28","modified_gmt":"2025-01-28T08:08:28","slug":"explosion-deepseeks-chinese-new-year-gift-a-detailed-explanation-of-the-multimodal-model-janus-pro","status":"publish","type":"post","link":"https:\/\/janusai.pro\/it\/explosion-deepseeks-chinese-new-year-gift-a-detailed-explanation-of-the-multimodal-model-janus-pro\/","title":{"rendered":"Esplosione! Il regalo di DeepSeek per il Capodanno cinese: una spiegazione dettagliata del modello multimodale Janus-Pro"},"content":{"rendered":"<div style=\"margin-top: 0px; margin-bottom: 0px;\" class=\"sharethis-inline-share-buttons\" ><\/div>\n<p>Esplosione!<a href=\"https:\/\/www.deepseek.com\/\" target=\"_blank\" rel=\"noreferrer noopener\"> DeepSeek<\/a>Il regalo di Capodanno cinese: una spiegazione dettagliata del modello multimodale Janus-Pro<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=NjQ1ZDQ0YmE4ZDI4ZGU3NWY4NjI3YzZlYzM4NTQ4M2NfR3h1d1pqTHdqaXJsN0xnajFNM3pQOVBUcWZyZ1Y4c3FfVG9rZW46REVyNWJucW1hb1RNWGd4cDA2V2N5NU1ibmpkXzE3MzgwNTEzNzM6MTczODA1NDk3M19WNA\" alt=\"\"\/><\/figure>\n\n\n\n<p><a href=\"https:\/\/www.deepseek.com\/\" target=\"_blank\" rel=\"noreferrer noopener\">L'ultimo modello Janus-Pro di DeepSeek <\/a>collega direttamente i \"cervelli destro e sinistro\" dell'IA multimodale!<\/p>\n\n\n\n<p>Questo killer bifronte, in grado di comprendere simultaneamente immagini e testi e di generare immagini, sta riscrivendo le regole del settore con il suo framework sviluppato in proprio.<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=MjhiMjc0Y2E3MTdkOWVmYWNlMjIxM2FkM2Q0NzFlYjBfTkl3a0ZwOTNDYnJpVWRMcGtzeU5JVmpmb2VoTEsyN2hfVG9rZW46VThxbGJwU2Yyb0EyeVB4MlY4ZWNZVGE5blBiXzE3MzgwNTEzNzM6MTczODA1NDk3M19WNA\" alt=\"\"\/><\/figure>\n\n\n\n<p>Non si tratta di una semplice sovrapposizione di funzioni, ma disaccoppiando il percorso di codifica visiva, il modello ha raggiunto il vero \"una mente, due usi\".<\/p>\n\n\n\n<p>I modelli multimodali tradizionali sono come usare la stessa mano per scrivere e disegnare, mentre Janus-Pro dota direttamente l'IA di due sistemi neurali!<\/p>\n\n\n\n<div id=\"ez-toc-container\" class=\"ez-toc-v2_0_82_2 counter-hierarchy ez-toc-counter ez-toc-grey ez-toc-container-direction\">\n<div class=\"ez-toc-title-container\">\n<p class=\"ez-toc-title\" style=\"cursor:inherit\">Indice dei contenuti<\/p>\n<span class=\"ez-toc-title-toggle\"><a href=\"#\" class=\"ez-toc-pull-right ez-toc-btn ez-toc-btn-xs ez-toc-btn-default ez-toc-toggle\" aria-label=\"Allinea la tabella dei contenuti\"><span class=\"ez-toc-js-icon-con\"><span class=\"\"><span class=\"eztoc-hide\" style=\"display:none;\">Toggle<\/span><span class=\"ez-toc-icon-toggle-span\"><svg style=\"fill: #999;color:#999\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" class=\"list-377408\" width=\"20px\" height=\"20px\" viewbox=\"0 0 24 24\" fill=\"none\"><path d=\"M6 6H4v2h2V6zm14 0H8v2h12V6zM4 11h2v2H4v-2zm16 0H8v2h12v-2zM4 16h2v2H4v-2zm16 0H8v2h12v-2z\" fill=\"currentColor\"><\/path><\/svg><svg style=\"fill: #999;color:#999\" class=\"arrow-unsorted-368013\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"10px\" height=\"10px\" viewbox=\"0 0 24 24\" version=\"1.2\" baseprofile=\"tiny\"><path d=\"M18.2 9.3l-6.2-6.3-6.2 6.3c-.2.2-.3.4-.3.7s.1.5.3.7c.2.2.4.3.7.3h11c.3 0 .5-.1.7-.3.2-.2.3-.5.3-.7s-.1-.5-.3-.7zM5.8 14.7l6.2 6.3 6.2-6.3c.2-.2.3-.5.3-.7s-.1-.5-.3-.7c-.2-.2-.4-.3-.7-.3h-11c-.3 0-.5.1-.7.3-.2.2-.3.5-.3.7s.1.5.3.7z\"\/><\/svg><\/span><\/span><\/span><\/a><\/span><\/div>\n<nav><ul class='ez-toc-list ez-toc-list-level-1' ><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-1\" href=\"https:\/\/janusai.pro\/it\/explosion-deepseeks-chinese-new-year-gift-a-detailed-explanation-of-the-multimodal-model-janus-pro\/#Framework_revolution_solving_the_century-old_problem_of_multimodality\" >Rivoluzione dei quadri: risolvere il problema secolare della multimodalit\u00e0<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-2\" href=\"https:\/\/janusai.pro\/it\/explosion-deepseeks-chinese-new-year-gift-a-detailed-explanation-of-the-multimodal-model-janus-pro\/#Training_strategy_the_evolutionary_path_to_three-step_success\" >Strategia di formazione: il percorso evolutivo per il successo in tre fasi<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-3\" href=\"https:\/\/janusai.pro\/it\/explosion-deepseeks-chinese-new-year-gift-a-detailed-explanation-of-the-multimodal-model-janus-pro\/#Performance_master\" >Maestro delle prestazioni<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-4\" href=\"https:\/\/janusai.pro\/it\/explosion-deepseeks-chinese-new-year-gift-a-detailed-explanation-of-the-multimodal-model-janus-pro\/#MIT_open_source_feel_free_to_play\" >MIT open source: sentitevi liberi di giocare!<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-5\" href=\"https:\/\/janusai.pro\/it\/explosion-deepseeks-chinese-new-year-gift-a-detailed-explanation-of-the-multimodal-model-janus-pro\/#Practical_value_lowering_the_barrier_to_entry\" >Valore pratico: abbassare la barriera d'ingresso<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-6\" href=\"https:\/\/janusai.pro\/it\/explosion-deepseeks-chinese-new-year-gift-a-detailed-explanation-of-the-multimodal-model-janus-pro\/#DeepSeeks_comprehensive_breakthrough\" >La scoperta completa di DeepSeek<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-7\" href=\"https:\/\/janusai.pro\/it\/explosion-deepseeks-chinese-new-year-gift-a-detailed-explanation-of-the-multimodal-model-janus-pro\/#Janus_pro_Related_links_and_documents\" >Janus pro Link e documenti correlati<\/a><\/li><\/ul><\/nav><\/div>\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Framework_revolution_solving_the_century-old_problem_of_multimodality\"><\/span>Rivoluzione dei quadri: risolvere il problema secolare della multimodalit\u00e0<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>L'innovazione pi\u00f9 spietata dell'Janus-Pro \u00e8 la suddivisione della codifica visiva in due canali indipendenti.<\/p>\n\n\n\n<p>\u00c8 come dotare l'IA dell'occhio della comprensione e della mano della creazione, in modo che il modello non abbia pi\u00f9 difficolt\u00e0 a elaborare la \"descrizione dell'immagine\" e il \"testo-immagine\".<\/p>\n\n\n\n<p>Il suo pi\u00f9 grande punto di forza \u00e8 il nuovo design dell'architettura unificata. Questa architettura \u00e8 composta da tre componenti fondamentali:<\/p>\n\n\n\n<p>Autoencoder: come modello linguistico di base<\/p>\n\n\n\n<p>SigLIP-L@384: responsabile della codifica della comprensione dell'immagine<\/p>\n\n\n\n<p>VQ-VAE basato su LlamaGen: per la generazione di immagini<\/p>\n\n\n\n<p>Disaccoppiando la codifica visiva in percorsi indipendenti, pur mantenendo un'architettura unificata del trasformatore, Janus-Pro risolve in modo ingegnoso il conflitto di ruoli dei modelli precedenti nel codificatore visivo.<\/p>\n\n\n\n<p>@reach_vb sottolinea la svolta fondamentale dell'architettura:<\/p>\n\n\n\n<p>Il modello \u00e8 costruito su DeepSeek-LLM-1.5b\/7b, utilizza SigLIP-L per elaborare 384\u00d7384 immagini in ingresso e disaccoppia il processo di codifica attraverso percorsi specifici per ogni attivit\u00e0.<\/p>\n\n\n\n<p>Questo design consente al modello di passare senza problemi da un'attivit\u00e0 multimodale all'altra, mantenendo un'unica architettura del trasformatore.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Training_strategy_the_evolutionary_path_to_three-step_success\"><\/span>Strategia di formazione: il percorso evolutivo per il successo in tre fasi<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>Il team di DeepSeek ha adottato un processo di formazione accuratamente progettato in tre fasi:<\/p>\n\n\n\n<p>Fase 1: Addestrare nuovi parametri sul set di dati ImageNet per stabilire connessioni concettuali tra elementi visivi e linguistici.<\/p>\n\n\n\n<p>Fase 2: introduzione di un set di dati ibridi multimodali per la messa a punto completa dei parametri<\/p>\n\n\n\n<p>Fase 3: migliorare le capacit\u00e0 di seguire i comandi e di dialogo attraverso una messa a punto supervisionata.<\/p>\n\n\n\n<p>Sono stati apportati anche aggiustamenti innovativi al rapporto tra i dati:<\/p>\n\n\n\n<p>Compito di comprensione dell'immagine: 50% (un aumento significativo)<\/p>\n\n\n\n<p>Compito di generazione dell'immagine: 40<\/p>\n\n\n\n<p>Compito di testo: 10%<\/p>\n\n\n\n<p>@iScienceLuvr sottolinea il segreto dell'allenamento:<\/p>\n\n\n\n<p>La percentuale di compiti testuali \u00e8 stata deliberatamente ridotta durante la terza fase di messa a punto.<\/p>\n\n\n\n<p>Questo costringe il modello a concentrare la sua potenza di calcolo sulla conversione intermodale.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Performance_master\"><\/span>Maestro delle prestazioni<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>Questo mostro \"tuttofare\" sta spaccando nelle due metriche principali!<\/p>\n\n\n\n<p>I test ufficiali dimostrano che l'Janus-Pro non solo batte il precedente modello unificato, ma pu\u00f2 addirittura affrontare i modelli specializzati in un testa a testa, ottenendo un punteggio pari a quello di LLaVA nel compito di comprensione e superando DALL-E 3 nella qualit\u00e0 della generazione!<\/p>\n\n\n\n<p>Con un punteggio GenEval di 0,8, mette in ombra l'SD3-Medium.<\/p>\n\n\n\n<p>e un punteggio DPG-Bench di 84,19, la sua qualit\u00e0 di creazione visiva \u00e8 vicina a quella dei designer professionisti.<\/p>\n\n\n\n<p>Ci\u00f2 si basa su una strategia di addestramento di 72 milioni di immagini sintetiche e su tre fasi di addestramento (addestramento adattatore \u2192 pre-addestramento unificato \u2192 messa a punto supervisionata), che ha letteralmente trasformato il modello in un \"maestro multimodale\".<\/p>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"aligncenter\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=YTNjN2M3NjFjMjUzNTMyMTYzMGI2NzU5MzRhYzc2NGNfdUlIMGx1NG5qWVFIcWVkb0NDQlRaM3BpM1N5akpWcWVfVG9rZW46VG9GNWI1a0tsb2NoVUl4S1gzQWNFUm5RblpiXzE3MzgwNTEzNzM6MTczODA1NDk3M19WNA\" alt=\"\"\/><\/figure><\/div>\n\n\n<p>@dr_cintas ha pubblicato un confronto delle misure effettive:<\/p>\n\n\n\n<p>Eseguendo una versione quantizzata a 4 bit su un iPhone, la velocit\u00e0 di inferenza \u00e8 di quasi 60 token\/s.<\/p>\n\n\n\n<p>La miniatura generata, 384\u00d7384, permette di leggere il testo della targa.<\/p>\n\n\n\n<p>Nel test di riferimento per la comprensione multimodale, l'Janus-Pro-7B ha dimostrato una forza sorprendente:<\/p>\n\n\n\n<p>PAPA: 87.4%<\/p>\n\n\n\n<p>MME-PT: 1567.1<\/p>\n\n\n\n<p>MMBench: 79,2<\/p>\n\n\n\n<p>SEME: 72,1<\/p>\n\n\n\n<p>MMMU: 41,0<\/p>\n\n\n\n<p>MM-Vet: 50,0<\/p>\n\n\n\n<p>In termini di generazione di immagini, il modello ha ottenuto un punteggio GenEval di 0,8 e un punteggio DPG-Bench di 84,19, superando molti modelli mainstream tra cui DALL-E 3 e SD3-Medium.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"MIT_open_source_feel_free_to_play\"><\/span>MIT open source: sentitevi liberi di giocare!<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>Questa volta DeepSeek ha cambiato le carte in tavola: la versione doppia 7B\/1B \u00e8 completamente open source e la licenza MIT consente modifiche commerciali!<\/p>\n\n\n\n<p>Hugging Face pu\u00f2 essere scaricato immediatamente e anche la versione leggera 1B pu\u00f2 essere eseguita in locale su un iPhone.<\/p>\n\n\n\n<p>Lo sviluppatore @angrypenguinPNG ha dato una dimostrazione dal vivo:<\/p>\n\n\n\n<p>Digitando \"scena notturna di citt\u00e0 futura\", in pochi secondi \u00e8 apparsa una street view cyberpunk.<\/p>\n\n\n\n<p>Zoomando per esaminare i dettagli della scena, il modello \u00e8 in grado di descrivere accuratamente il gradiente delle luci al neon.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Practical_value_lowering_the_barrier_to_entry\"><\/span>Valore pratico: abbassare la barriera d'ingresso<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>Per soddisfare le esigenze di diversi scenari, DeepSeek offre due versioni:<\/p>\n\n\n\n<p>Janus-Pro-7B: la versione completa, con potenti prestazioni<\/p>\n\n\n\n<p>Janus-Pro-1B: una versione leggera che pu\u00f2 essere eseguita direttamente nel browser<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=NTFmYzY0NmFmOWU5YWNkMThlNzBkNjI1YzgyZGZhMThfRUYzZ1BjR2RUYzZkckdFYjloc2tlOUw4dEtSQ2Nqb01fVG9rZW46RDNodGJxeEppb29WU1R4ajdjdWNsZXJwbmRkXzE3MzgwNTEzNzM6MTczODA1NDk3M19WNA\" alt=\"\"\/><\/figure>\n\n\n\n<p>Entrambe le versioni sono state aperte sulla piattaforma Hugging Face e rilasciate sotto licenza MIT, in modo che gli sviluppatori possano utilizzarle e modificarle liberamente.<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=NWRhMjEwYjQ0MDQ5ZmE1ZTM0MjBmMzk1ZWM2OWRlYTBfRUJ4S2pIU1dmSG9GaGRTUURJanhxT1ZEQTFkRmU0ZlFfVG9rZW46QUdCUWJ6N2V0b2NoYXh4V2ppamNRRzVNbktjXzE3MzgwNTEzNzM6MTczODA1NDk3M19WNA\" alt=\"\"\/><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"DeepSeeks_comprehensive_breakthrough\"><\/span>La scoperta completa di DeepSeek<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>Ora la domanda pi\u00f9 interessante \u00e8: quando la comprensione e la generazione non richiederanno pi\u00f9 due modelli separati, l'attuale architettura applicativa dell'IA sar\u00e0 collettivamente stravolta?<\/p>\n\n\n\n<p>Chi \u00e8 ancora alle prese con applicazioni monomodali dovrebbe prendere in considerazione lo sviluppo di applicazioni collaborative per il cervello destro e sinistro.<\/p>\n\n\n\n<p>Dopo tutto, un modello che pu\u00f2 giocare contemporaneamente con il testo e la grafica \u00e8 la vera incarnazione della multimodalit\u00e0.<\/p>\n\n\n\n<p>Vale la pena di notare che il rilascio di Janus-Pro \u00e8 solo una delle recenti scoperte di DeepSeek:<\/p>\n\n\n\n<p>Perplexity ha integrato il modello DeepSeek R1 per la ricerca nel deep web.<\/p>\n\n\n\n<p>DeepSeek R1 raggiunge una velocit\u00e0 di inferenza locale di 60 token\/s su iPhone.<\/p>\n\n\n\n<p>L'assistente AI DeepSeek \u00e8 balzato in cima alla lista delle applicazioni gratuite dell'App Store<\/p>\n\n\n\n<p>e ha dimostrato prestazioni di inferenza estremamente veloci sulla piattaforma Groq.<\/p>\n\n\n\n<p>Questi risultati dimostrano la forza globale di DeepSeek nel campo dell'IA e i progressi rivoluzionari di Janus-Pro hanno aperto nuove direzioni per lo sviluppo dell'IA multimodale.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Janus_pro_Related_links_and_documents\"><\/span>Janus pro Link e documenti correlati<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p><strong>Indirizzo del progetto:<\/strong><\/p>\n\n\n\n<p><a href=\"https:\/\/github.com\/deepseek-ai\/Janus\" target=\"_blank\" rel=\"noreferrer noopener\">Repository GitHub<\/a><\/p>\n\n\n\n<p><a href=\"https:\/\/github.com\/deepseek-ai\/Janus\/blob\/main\/janus_pro_tech_report.pdf\" target=\"_blank\" rel=\"noreferrer noopener\">Rapporto tecnico<\/a><\/p>\n\n\n\n<p><strong>Download del modello:<\/strong><\/p>\n\n\n\n<p><a href=\"https:\/\/huggingface.co\/deepseek-ai\/Janus-Pro-7B\" target=\"_blank\" rel=\"noreferrer noopener\">Janus-Pro-7B<\/a><\/p>\n\n\n\n<p><a href=\"https:\/\/huggingface.co\/deepseek-ai\/Janus-Pro-1B\" target=\"_blank\" rel=\"noreferrer noopener\">Janus-Pro-1B<\/a><\/p>\n\n\n\n<p><strong>Esperienza rapida:<\/strong><\/p>\n\n\n\n<p><a href=\"https:\/\/janusai.pro\/it\/\" target=\"_blank\" rel=\"noreferrer noopener\">Nessuna distribuzione, uso gratuito e online janus pro<\/a><\/p>\n\n\n\n<p><strong>Documentazione di riferimento:<\/strong><\/p>\n\n\n\n<p><a href=\"https:\/\/github.com\/deepseek-ai\/Janus?tab=readme-ov-file#3-quick-start\" target=\"_blank\" rel=\"noreferrer noopener\">Guida rapida<\/a><\/p>\n\n\n\n<p><a href=\"https:\/\/huggingface.co\/organizations\/deepseek-ai\/activity\/all\" target=\"_blank\" rel=\"noreferrer noopener\">Evento ufficiale di DeepSeek<\/a><\/p>\n\n\n\n<p>Infine, vorremmo dire: Il nome della societ\u00e0 di Sam Altman, la torta che ha dipinto e il percorso che ha pensato sembrano essere passati a questa societ\u00e0 cinese guidata dalla curiosit\u00e0, che continuer\u00e0 l'esplorazione approfondita dei confini dell'intelligenza!<\/p>\n\n\n\n<p><\/p>","protected":false},"excerpt":{"rendered":"<p>Esplosione! Il regalo di DeepSeek per il Capodanno cinese: una spiegazione dettagliata del modello multimodale Janus-Pro L'ultimo modello Janus-Pro di DeepSeek collega direttamente i \"cervelli destro e sinistro\" dell'IA multimodale! Questo killer bifronte, in grado di comprendere simultaneamente immagini e testi e di generare immagini, sta riscrivendo le regole del settore con il suo framework sviluppato in proprio. Questo non \u00e8...<\/p>","protected":false},"author":2,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_kadence_starter_templates_imported_post":false,"_kad_post_transparent":"","_kad_post_title":"","_kad_post_layout":"","_kad_post_sidebar_id":"","_kad_post_content_style":"","_kad_post_vertical_padding":"","_kad_post_feature":"","_kad_post_feature_position":"","_kad_post_header":false,"_kad_post_footer":false,"footnotes":""},"categories":[1],"tags":[],"class_list":["post-607","post","type-post","status-publish","format-standard","hentry","category-uncategorized"],"_links":{"self":[{"href":"https:\/\/janusai.pro\/it\/wp-json\/wp\/v2\/posts\/607","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/janusai.pro\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/janusai.pro\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/janusai.pro\/it\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/janusai.pro\/it\/wp-json\/wp\/v2\/comments?post=607"}],"version-history":[{"count":1,"href":"https:\/\/janusai.pro\/it\/wp-json\/wp\/v2\/posts\/607\/revisions"}],"predecessor-version":[{"id":610,"href":"https:\/\/janusai.pro\/it\/wp-json\/wp\/v2\/posts\/607\/revisions\/610"}],"wp:attachment":[{"href":"https:\/\/janusai.pro\/it\/wp-json\/wp\/v2\/media?parent=607"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/janusai.pro\/it\/wp-json\/wp\/v2\/categories?post=607"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/janusai.pro\/it\/wp-json\/wp\/v2\/tags?post=607"}],"curies":[{"name":"parola chiave","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}