{"id":710,"date":"2025-01-29T12:02:22","date_gmt":"2025-01-29T12:02:22","guid":{"rendered":"https:\/\/janusai.pro\/?p=710"},"modified":"2025-01-29T12:02:40","modified_gmt":"2025-01-29T12:02:40","slug":"deepseek-v3-paper-details-how-to-bypass-the-cuda-monopoly","status":"publish","type":"post","link":"https:\/\/janusai.pro\/it\/deepseek-v3-paper-details-how-to-bypass-the-cuda-monopoly\/","title":{"rendered":"Dettagli del documento DeepSeek V3: Come aggirare il monopolio CUDA!"},"content":{"rendered":"<div style=\"margin-top: 0px; margin-bottom: 0px;\" class=\"sharethis-inline-share-buttons\" ><\/div>\n<p><a href=\"https:\/\/www.deepseek.com\/\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">DeepSeek V3<\/a> dettagli del documento: Come aggirare il monopolio CUDA!<\/p>\n\n\n\n<p>I due modelli recentemente rilasciati da DeepSeek, DeepSeek-V3 e DeepSeek-R1, raggiungono prestazioni paragonabili a quelle di modelli simili di OpenAI a un costo molto inferiore.<\/p>\n\n\n\n<p>Secondo quanto riportato dai media stranieri, in soli due mesi \u00e8 stato addestrato un modello linguistico MoE con 671 miliardi di parametri su un cluster di 2.048 GPU H800, un'efficienza 10 volte superiore a quella delle migliori AI.<\/p>\n\n\n\n<p>Questa svolta non \u00e8 stata ottenuta utilizzando CUDA, ma grazie a un gran numero di ottimizzazioni a grana fine e all'uso della programmazione PTX (esecuzione di thread in parallelo) di NVIDIA in stile assembly.<\/p>\n\n\n\n<p><a href=\"https:\/\/www.deepseek.com\/\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">DeepSeek<\/a> \u00e8 stata costretta a prendere una strada diversa da OpenAI e da altre aziende che si affidano alla potenza di calcolo bruta in presenza di vincoli hardware. Ha utilizzato una serie di innovazioni tecnologiche per ridurre i requisiti energetici del modello, ottenendo al contempo un aumento delle prestazioni.<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=ZDM1YTM0ODZkYmQzOWNkNzc2ZTBmNzUwY2ZjOWYxMjZfYnUyVHFsb05ya0c1M0hvMGRUbk9CN3FVekR1ZjlQMEZfVG9rZW46TUtzM2JudThpb1p3NHJ4SlZNeWNWdU10bnNnXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<p>Alcuni commenti entusiasti dei netizen:<\/p>\n\n\n\n<p>\"In questo mondo, se ci sono gruppi di persone cos\u00ec folli da dire cose come 'CUDA \u00e8 troppo lento!<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=OGEyMmE3ZTJkODlkZDlmNjliZTI1MzI5YTE4ZWE3MjdfWWRBam5VTkVaV1ZsMFg3VzVTRjRDZlUzV2ZiSHZYT2RfVG9rZW46VGZsdWJrTzZHb243OUx4bEZsbmNmMFNzblFiXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=NzI1ZTBlMjJkMDI2N2MyMDdkMGI4YmU5OTJjNGM0YzFfZW4xbjVERFdhdGVObHBDUWR3NVZjbDRSM2lrVDlWRGlfVG9rZW46Q2N5MWIxV2ltbzdmZU14VXI2amNuZDk2bmRkXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=MDMyN2YyYjYwYTNkZDhmMmEyYWY2MjMzZGE3MGM1ZmFfM29veUZrRWdYODRGR0JVdWVVTnRoMzVwTWxjV09CT25fVG9rZW46SVE2dGJWek9Mb29jaTJ4ZnkzWWN5bUZWbnVnXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<div id=\"ez-toc-container\" class=\"ez-toc-v2_0_82_2 counter-hierarchy ez-toc-counter ez-toc-grey ez-toc-container-direction\">\n<div class=\"ez-toc-title-container\">\n<p class=\"ez-toc-title\" style=\"cursor:inherit\">Indice dei contenuti<\/p>\n<span class=\"ez-toc-title-toggle\"><a href=\"#\" class=\"ez-toc-pull-right ez-toc-btn ez-toc-btn-xs ez-toc-btn-default ez-toc-toggle\" aria-label=\"Allinea la tabella dei contenuti\"><span class=\"ez-toc-js-icon-con\"><span class=\"\"><span class=\"eztoc-hide\" style=\"display:none;\">Toggle<\/span><span class=\"ez-toc-icon-toggle-span\"><svg style=\"fill: #999;color:#999\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" class=\"list-377408\" width=\"20px\" height=\"20px\" viewbox=\"0 0 24 24\" fill=\"none\"><path d=\"M6 6H4v2h2V6zm14 0H8v2h12V6zM4 11h2v2H4v-2zm16 0H8v2h12v-2zM4 16h2v2H4v-2zm16 0H8v2h12v-2z\" fill=\"currentColor\"><\/path><\/svg><svg style=\"fill: #999;color:#999\" class=\"arrow-unsorted-368013\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"10px\" height=\"10px\" viewbox=\"0 0 24 24\" version=\"1.2\" baseprofile=\"tiny\"><path d=\"M18.2 9.3l-6.2-6.3-6.2 6.3c-.2.2-.3.4-.3.7s.1.5.3.7c.2.2.4.3.7.3h11c.3 0 .5-.1.7-.3.2-.2.3-.5.3-.7s-.1-.5-.3-.7zM5.8 14.7l6.2 6.3 6.2-6.3c.2-.2.3-.5.3-.7s-.1-.5-.3-.7c-.2-.2-.4-.3-.7-.3h-11c-.3 0-.5.1-.7.3-.2.2-.3.5-.3.7s.1.5.3.7z\"\/><\/svg><\/span><\/span><\/span><\/a><\/span><\/div>\n<nav><ul class='ez-toc-list ez-toc-list-level-1' ><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-1\" href=\"https:\/\/janusai.pro\/it\/deepseek-v3-paper-details-how-to-bypass-the-cuda-monopoly\/#Genius_geeks_fine-tune_PTX_to_maximize_GPU_performance\" >Gli smanettoni mettono a punto il PTX per massimizzare le prestazioni della GPU<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-2\" href=\"https:\/\/janusai.pro\/it\/deepseek-v3-paper-details-how-to-bypass-the-cuda-monopoly\/#PTX_and_CUDA\" >PTX e CUDA<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-3\" href=\"https:\/\/janusai.pro\/it\/deepseek-v3-paper-details-how-to-bypass-the-cuda-monopoly\/#However_the_technical_barriers_remain\" >Tuttavia, le barriere tecniche rimangono<\/a><\/li><\/ul><\/nav><\/div>\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Genius_geeks_fine-tune_PTX_to_maximize_GPU_performance\"><\/span>Gli smanettoni mettono a punto il PTX per massimizzare le prestazioni della GPU<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>NVIDIA PTX (Parallel Thread Execution) \u00e8 un'architettura a set di istruzioni intermedio progettata specificamente per le sue GPU, che si colloca tra i linguaggi di programmazione GPU di alto livello (come CUDA C\/C++) o altri linguaggi front-end e il codice macchina di basso livello (streaming assembly o SASS).<\/p>\n\n\n\n<p>PTX \u00e8 un'architettura di set di istruzioni di basso livello che presenta la GPU come un dispositivo di elaborazione parallela dei dati, consentendo ottimizzazioni a grana fine come l'allocazione dei registri e la regolazione a livello di thread\/thread-bundle che non sono possibili con linguaggi come CUDA C\/C++.<\/p>\n\n\n\n<p>Quando PTX viene convertito in SASS, viene ottimizzato per una generazione specifica di GPU NVIDIA.<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=MGIwZTQ0ZDdhMTgxYTBlMmEzZDE5OTczN2ZlZmEzNGFfc3I3T2U0UzNCOGdjd1ZHcktHd1hkd1RpcXlLbkxrU1FfVG9rZW46Vk05WWJ0a1Bob3NkYzl4bXpFc2N6anI3bktjXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<p>Durante l'addestramento del modello V3, DeepSeek ha riconfigurato la GPU NVIDIA H800:<\/p>\n\n\n\n<p>Dei 132 core del processore di flusso, 20 sono stati assegnati alla comunicazione inter-server, principalmente per la compressione e la decompressione dei dati, per superare il limite di connessione del processore e migliorare la velocit\u00e0 di elaborazione delle transazioni.<\/p>\n\n\n\n<p>Per massimizzare le prestazioni, DeepSeek ha anche implementato algoritmi avanzati di pipelining attraverso regolazioni aggiuntive a livello di thread\/thread bundle a grana fine.<\/p>\n\n\n\n<p>Queste ottimizzazioni vanno ben oltre il livello di sviluppo CUDA convenzionale, ma sono estremamente difficili da mantenere. Tuttavia, questo livello di ottimizzazione \u00e8 proprio quello che dimostra pienamente le eccezionali capacit\u00e0 tecniche del team DeepSeek.<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=MDk2ZDMyM2IzOGU5OWNmN2JhOTY2ZDZmMjhkOWYwZGFfUnFiV0hvbnQ0ZUFHSHg3WHpyMW5jYTRvMURPM1pDSTZfVG9rZW46QnZVNWJyUzBDb2FWeE54Ym4ybGNZNXlnbmFnXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<p>Il documento V3 menziona specificamente i dettagli relativi al PTX<\/p>\n\n\n\n<p>Questo perch\u00e9, sotto la duplice pressione della carenza di GPU a livello mondiale e delle restrizioni statunitensi, aziende come DeepSeek hanno dovuto cercare soluzioni innovative.<\/p>\n\n\n\n<p>Fortunatamente, hanno fatto progressi significativi in questo campo.<\/p>\n\n\n\n<p>Uno sviluppatore ritiene che \"la programmazione a basso livello delle GPU sia la direzione giusta. Maggiore \u00e8 l'ottimizzazione, minore \u00e8 il costo o il budget per le prestazioni che pu\u00f2 essere utilizzato per altri progressi senza ulteriori spese\".<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=MmEzYzA5ZTVmNjE4ZTlhMWE0NWU1ZTgyZTA2NmUxMDJfUWdNb21QeEFtUWlFSFA1aGFWZEZJMzlUNjdPT3J5NXRfVG9rZW46RWtaaGJ2UlBHbzk2VWF4TmxkeGNPeGdKblJnXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<p>Questa svolta ha avuto un impatto significativo sul mercato e alcuni investitori ritengono che il nuovo modello ridurr\u00e0 la domanda di hardware ad alte prestazioni, con possibili ripercussioni sulle vendite di aziende come NVIDIA.<\/p>\n\n\n\n<p>Tuttavia, i veterani del settore, tra cui l'ex CEO di Intel Pat Gelsinger, ritengono che le applicazioni di IA possano sfruttare appieno tutta la potenza di calcolo disponibile.<\/p>\n\n\n\n<p>Gelsinger vede in questa scoperta di DeepSeek un nuovo modo di incorporare le capacit\u00e0 di intelligenza artificiale in dispositivi a basso costo per il mercato di massa.<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=NzgzZjM2ZTVlOWM0OWI1MDE5OTI1NTQwNWRjYTI5Y2NfZ25sc2tPNFJ1UHZwemp1WEVlclU1cloxZXI5aHJMbEZfVG9rZW46SHlGTGJnNHpHbzNzbnd4bkxPQ2N4T0RyblZkXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"PTX_and_CUDA\"><\/span>PTX e CUDA<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>L'arrivo di DeepSeek significa quindi che lo sviluppo di LLM all'avanguardia non richiede pi\u00f9 cluster di GPU su larga scala?<\/p>\n\n\n\n<p>Gli enormi investimenti in risorse informatiche da parte di Google, <a href=\"https:\/\/openai.com\/\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">OpenAI<\/a>Meta e xAI vanno in definitiva sprecati? Il consenso generale tra gli sviluppatori di IA \u00e8 che non \u00e8 cos\u00ec.<\/p>\n\n\n\n<p>Tuttavia, \u00e8 certo che c'\u00e8 ancora un enorme potenziale da sfruttare in termini di elaborazione dei dati e di ottimizzazione degli algoritmi, e sicuramente in futuro emergeranno metodi di ottimizzazione pi\u00f9 innovativi.<\/p>\n\n\n\n<p>Con il modello V3 di DeepSeek open sourced, i dettagli sono resi noti nella sua relazione tecnica.<\/p>\n\n\n\n<p>Il rapporto documenta le profonde ottimizzazioni di fondo effettuate da DeepSeek. In breve, il grado di ottimizzazione pu\u00f2 essere riassunto come \"hanno ricostruito l'intero sistema dalle fondamenta\".<\/p>\n\n\n\n<p>Come accennato in precedenza, durante l'addestramento del V3 con la GPU H800, DeepSeek ha personalizzato le unit\u00e0 di calcolo principali della GPU (core multiprocessore in streaming, o SM) per soddisfare esigenze specifiche.<\/p>\n\n\n\n<p>Dei 132 SM totali, ne sono stati assegnati 20 per gestire le attivit\u00e0 di comunicazione tra server piuttosto che quelle di calcolo.<\/p>\n\n\n\n<p>Questa personalizzazione viene effettuata a livello di PTX (parallel thread execution), che \u00e8 il set di istruzioni di basso livello della GPU NVIDIA.<\/p>\n\n\n\n<p>PTX viene eseguito a un livello vicino al linguaggio assembly e consente ottimizzazioni a grana fine, come l'allocazione dei registri e la regolazione a livello di thread\/thread-bundle. Tuttavia, questo controllo fine \u00e8 complesso e difficile da mantenere.<\/p>\n\n\n\n<p>Per questo motivo gli sviluppatori di solito preferiscono utilizzare linguaggi di programmazione di alto livello come CUDA, che forniscono ottimizzazioni delle prestazioni sufficienti per la maggior parte delle attivit\u00e0 di programmazione parallela ed eliminano la necessit\u00e0 di ottimizzazioni di basso livello.<\/p>\n\n\n\n<p>Tuttavia, quando si tratta di massimizzare l'efficienza delle risorse della GPU e di raggiungere requisiti di ottimizzazione specifici, gli sviluppatori devono ricorrere a PTX.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"However_the_technical_barriers_remain\"><\/span>Tuttavia, le barriere tecniche rimangono<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>A questo proposito, l'utente Internet Ian Cutress ha dichiarato: \"L'uso di PTX da parte di Deepseek non elimina le barriere tecniche di CUDA\".<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=YTFkNWFkMTNiYjQzNDZiMDI3ZmYxYjA3MzExYjE1MGRfemNRaFdmM1R4MTMwUWVWTUxxbHN2SjZYNEhvazBrZlNfVG9rZW46SFlEU2IwNEd3b29kMGl4cmVaOGNTcHFZbmxjXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<p>CUDA \u00e8 un linguaggio di alto livello. Rende pi\u00f9 semplice lo sviluppo di librerie e interfacce con le GPU NVIDIA e supporta uno sviluppo iterativo rapido.<\/p>\n\n\n\n<p>CUDA \u00e8 in grado di ottimizzare le prestazioni grazie alla messa a punto del codice sottostante (ad esempio PTX) e le librerie di base sono gi\u00e0 complete. La maggior parte del software di produzione \u00e8 attualmente costruito su CUDA.<\/p>\n\n\n\n<p>PTX \u00e8 pi\u00f9 simile a un linguaggio assembly direttamente comprensibile per la GPU. Funziona a basso livello e consente un'ottimizzazione a livello micro.<\/p>\n\n\n\n<p>Se si sceglie di programmare in PTX, significa che non \u00e8 possibile utilizzare nessuna delle librerie CUDA integrate di cui sopra. Si tratta di un'operazione molto noiosa che richiede competenze approfondite in materia di hardware e runtime.<\/p>\n\n\n\n<p>Tuttavia, se gli sviluppatori comprendono appieno ci\u00f2 che stanno facendo, possono effettivamente ottenere migliori prestazioni e ottimizzazioni in fase di esecuzione.<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=MGU3N2MyY2Y5NDg0MzAxYjkzNzI4MDg3YTRjN2JiNjJfSTI4Um5wZkxwamJMNjRLdmx6TnFmcTlhVDhLbTEyYlhfVG9rZW46SVpVcWJ4TmRtbzdYRjF4RFk5SWN4OWdjbmRlXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<p>Attualmente, il mainstream dell'ecosistema NVIDIA \u00e8 ancora l'uso di CUDA.<\/p>\n\n\n\n<p>Gli sviluppatori che vogliono ottenere prestazioni o efficienza energetica extra dal loro carico di calcolo, come le aziende che distribuiscono modelli nel cloud e vendono servizi di token, hanno ottimizzato dal livello CUDA al livello PTX. Sono disposti a investire tempo perch\u00e9 ne vale la pena nel lungo periodo.<\/p>\n\n\n\n<p>Va notato che PTX \u00e8 solitamente ottimizzato per uno specifico modello di hardware ed \u00e8 difficile da trasferire tra hardware diversi, a meno che non si scriva appositamente una logica di adattamento.<\/p>\n\n\n\n<p>Inoltre, la messa a punto manuale del kernel di calcolo richiede molta perseveranza, coraggio e una particolare capacit\u00e0 di mantenere la calma, perch\u00e9 il programma pu\u00f2 avere un errore di accesso alla memoria ogni 5.000 cicli.<\/p>\n\n\n\n<p>Naturalmente, per gli scenari in cui PTX \u00e8 veramente necessario e per gli sviluppatori che sono pagati abbastanza per occuparsi di questi problemi, esprimiamo la nostra piena comprensione e il nostro rispetto.<\/p>\n\n\n\n<p>Per tutti gli altri sviluppatori, \u00e8 consigliabile continuare a usare CUDA o altre varianti avanzate basate su CUDA (o MLIR).<\/p>","protected":false},"excerpt":{"rendered":"<p>Dettagli del documento DeepSeek V3: Come aggirare il monopolio CUDA! I due modelli recentemente rilasciati da DeepSeek, DeepSeek-V3 e DeepSeek-R1, raggiungono prestazioni paragonabili a quelle di modelli simili di OpenAI a un costo molto inferiore. Secondo quanto riportato dai media stranieri, in soli due mesi hanno addestrato un modello linguistico MoE con 671 miliardi di parametri su un cluster di 2.048...<\/p>","protected":false},"author":2,"featured_media":684,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_kadence_starter_templates_imported_post":false,"_kad_post_transparent":"","_kad_post_title":"","_kad_post_layout":"","_kad_post_sidebar_id":"","_kad_post_content_style":"","_kad_post_vertical_padding":"","_kad_post_feature":"","_kad_post_feature_position":"","_kad_post_header":false,"_kad_post_footer":false,"footnotes":""},"categories":[1],"tags":[],"class_list":["post-710","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-uncategorized"],"_links":{"self":[{"href":"https:\/\/janusai.pro\/it\/wp-json\/wp\/v2\/posts\/710","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/janusai.pro\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/janusai.pro\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/janusai.pro\/it\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/janusai.pro\/it\/wp-json\/wp\/v2\/comments?post=710"}],"version-history":[{"count":1,"href":"https:\/\/janusai.pro\/it\/wp-json\/wp\/v2\/posts\/710\/revisions"}],"predecessor-version":[{"id":711,"href":"https:\/\/janusai.pro\/it\/wp-json\/wp\/v2\/posts\/710\/revisions\/711"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/janusai.pro\/it\/wp-json\/wp\/v2\/media\/684"}],"wp:attachment":[{"href":"https:\/\/janusai.pro\/it\/wp-json\/wp\/v2\/media?parent=710"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/janusai.pro\/it\/wp-json\/wp\/v2\/categories?post=710"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/janusai.pro\/it\/wp-json\/wp\/v2\/tags?post=710"}],"curies":[{"name":"parola chiave","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}