{"id":710,"date":"2025-01-29T12:02:22","date_gmt":"2025-01-29T12:02:22","guid":{"rendered":"https:\/\/janusai.pro\/?p=710"},"modified":"2025-01-29T12:02:40","modified_gmt":"2025-01-29T12:02:40","slug":"deepseek-v3-paper-details-how-to-bypass-the-cuda-monopoly","status":"publish","type":"post","link":"https:\/\/janusai.pro\/da\/deepseek-v3-paper-details-how-to-bypass-the-cuda-monopoly\/","title":{"rendered":"Detaljer om DeepSeek V3-papiret: S\u00e5dan omg\u00e5r du CUDA-monopolet!"},"content":{"rendered":"<div style=\"margin-top: 0px; margin-bottom: 0px;\" class=\"sharethis-inline-share-buttons\" ><\/div>\n<p><a href=\"https:\/\/www.deepseek.com\/\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">DeepSeek V3<\/a> detaljer om papiret: Hvordan man omg\u00e5r CUDA-monopolet!<\/p>\n\n\n\n<p>DeepSeeks to nyligt udgivne modeller, DeepSeek-V3 og DeepSeek-R1, opn\u00e5r en ydeevne, der kan sammenlignes med lignende modeller fra OpenAI til en meget lavere pris.<\/p>\n\n\n\n<p>If\u00f8lge udenlandske medierapporter har de p\u00e5 bare to m\u00e5neder tr\u00e6net en MoE-sprogmodel med 671 milliarder parametre p\u00e5 en klynge af 2.048 H800 GPU'er, hvilket er 10 gange mere effektivt end den bedste AI.<\/p>\n\n\n\n<p>Dette gennembrud blev ikke opn\u00e5et ved hj\u00e6lp af CUDA, men gennem et stort antal finkornede optimeringer og brugen af NVIDIA's assembly-lignende PTX-programmering (parallel thread execution).<\/p>\n\n\n\n<p><a href=\"https:\/\/www.deepseek.com\/\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">DeepSeek<\/a> har v\u00e6ret tvunget til at g\u00e5 en anden vej end OpenAI og andre virksomheder, der er afh\u00e6ngige af brutal computerkraft under hardwarebegr\u00e6nsninger. De har brugt en r\u00e6kke teknologiske innovationer til at reducere modellens str\u00f8mforbrug og samtidig opn\u00e5 en bedre ydeevne.<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=ZDM1YTM0ODZkYmQzOWNkNzc2ZTBmNzUwY2ZjOWYxMjZfYnUyVHFsb05ya0c1M0hvMGRUbk9CN3FVekR1ZjlQMEZfVG9rZW46TUtzM2JudThpb1p3NHJ4SlZNeWNWdU10bnNnXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<p>Nogle begejstrede kommentarer fra netbrugere:<\/p>\n\n\n\n<p>\"Hvis der i denne verden er nogen grupper af mennesker, der er sk\u00f8re nok til at sige ting som 'CUDA er for langsomt!<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=OGEyMmE3ZTJkODlkZDlmNjliZTI1MzI5YTE4ZWE3MjdfWWRBam5VTkVaV1ZsMFg3VzVTRjRDZlUzV2ZiSHZYT2RfVG9rZW46VGZsdWJrTzZHb243OUx4bEZsbmNmMFNzblFiXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=NzI1ZTBlMjJkMDI2N2MyMDdkMGI4YmU5OTJjNGM0YzFfZW4xbjVERFdhdGVObHBDUWR3NVZjbDRSM2lrVDlWRGlfVG9rZW46Q2N5MWIxV2ltbzdmZU14VXI2amNuZDk2bmRkXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=MDMyN2YyYjYwYTNkZDhmMmEyYWY2MjMzZGE3MGM1ZmFfM29veUZrRWdYODRGR0JVdWVVTnRoMzVwTWxjV09CT25fVG9rZW46SVE2dGJWek9Mb29jaTJ4ZnkzWWN5bUZWbnVnXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<div id=\"ez-toc-container\" class=\"ez-toc-v2_0_82_2 counter-hierarchy ez-toc-counter ez-toc-grey ez-toc-container-direction\">\n<div class=\"ez-toc-title-container\">\n<p class=\"ez-toc-title\" style=\"cursor:inherit\">Indholdsfortegnelse<\/p>\n<span class=\"ez-toc-title-toggle\"><a href=\"#\" class=\"ez-toc-pull-right ez-toc-btn ez-toc-btn-xs ez-toc-btn-default ez-toc-toggle\" aria-label=\"Skift til indholdsfortegnelse\"><span class=\"ez-toc-js-icon-con\"><span class=\"\"><span class=\"eztoc-hide\" style=\"display:none;\">Toggle<\/span><span class=\"ez-toc-icon-toggle-span\"><svg style=\"fill: #999;color:#999\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" class=\"list-377408\" width=\"20px\" height=\"20px\" viewbox=\"0 0 24 24\" fill=\"none\"><path d=\"M6 6H4v2h2V6zm14 0H8v2h12V6zM4 11h2v2H4v-2zm16 0H8v2h12v-2zM4 16h2v2H4v-2zm16 0H8v2h12v-2z\" fill=\"currentColor\"><\/path><\/svg><svg style=\"fill: #999;color:#999\" class=\"arrow-unsorted-368013\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"10px\" height=\"10px\" viewbox=\"0 0 24 24\" version=\"1.2\" baseprofile=\"tiny\"><path d=\"M18.2 9.3l-6.2-6.3-6.2 6.3c-.2.2-.3.4-.3.7s.1.5.3.7c.2.2.4.3.7.3h11c.3 0 .5-.1.7-.3.2-.2.3-.5.3-.7s-.1-.5-.3-.7zM5.8 14.7l6.2 6.3 6.2-6.3c.2-.2.3-.5.3-.7s-.1-.5-.3-.7c-.2-.2-.4-.3-.7-.3h-11c-.3 0-.5.1-.7.3-.2.2-.3.5-.3.7s.1.5.3.7z\"\/><\/svg><\/span><\/span><\/span><\/a><\/span><\/div>\n<nav><ul class='ez-toc-list ez-toc-list-level-1' ><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-1\" href=\"https:\/\/janusai.pro\/da\/deepseek-v3-paper-details-how-to-bypass-the-cuda-monopoly\/#Genius_geeks_fine-tune_PTX_to_maximize_GPU_performance\" >Geniale n\u00f8rder finjusterer PTX for at maksimere GPU-ydelsen<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-2\" href=\"https:\/\/janusai.pro\/da\/deepseek-v3-paper-details-how-to-bypass-the-cuda-monopoly\/#PTX_and_CUDA\" >PTX og CUDA<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-3\" href=\"https:\/\/janusai.pro\/da\/deepseek-v3-paper-details-how-to-bypass-the-cuda-monopoly\/#However_the_technical_barriers_remain\" >Men der er stadig tekniske barrierer<\/a><\/li><\/ul><\/nav><\/div>\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Genius_geeks_fine-tune_PTX_to_maximize_GPU_performance\"><\/span>Geniale n\u00f8rder finjusterer PTX for at maksimere GPU-ydelsen<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>NVIDIA PTX (Parallel Thread Execution) er en arkitektur med mellemliggende instruktionss\u00e6t, der er designet specielt til GPU'erne, og som ligger mellem GPU-programmeringssprog p\u00e5 h\u00f8jt niveau (s\u00e5som CUDA C\/C++) eller andre sprogfrontends og maskinkode p\u00e5 lavt niveau (streaming assembly eller SASS).<\/p>\n\n\n\n<p>PTX er en instruktionsarkitektur p\u00e5 lavt niveau, der pr\u00e6senterer GPU'en som en dataparallel computerenhed, der muligg\u00f8r finkornet optimering som f.eks. registerallokering og tuning p\u00e5 tr\u00e5d\/tr\u00e5dbundt-niveau, der ikke er mulig med sprog som CUDA C\/C++.<\/p>\n\n\n\n<p>N\u00e5r PTX konverteres til SASS, er det optimeret til en bestemt generation af NVIDIA GPU'er.<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=MGIwZTQ0ZDdhMTgxYTBlMmEzZDE5OTczN2ZlZmEzNGFfc3I3T2U0UzNCOGdjd1ZHcktHd1hkd1RpcXlLbkxrU1FfVG9rZW46Vk05WWJ0a1Bob3NkYzl4bXpFc2N6anI3bktjXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<p>Ved tr\u00e6ning af V3-modellen omkonfigurerede DeepSeek NVIDIA H800 GPU'en:<\/p>\n\n\n\n<p>Af de 132 stream-processorkerner blev 20 allokeret til kommunikation mellem servere, prim\u00e6rt til datakomprimering og -dekomprimering, for at bryde processorens forbindelsesgr\u00e6nse og forbedre transaktionsbehandlingshastigheden.<\/p>\n\n\n\n<p>For at maksimere ydeevnen har DeepSeek ogs\u00e5 implementeret avancerede pipelining-algoritmer gennem yderligere finkornede justeringer p\u00e5 tr\u00e5d\/tr\u00e5dbundt-niveau.<\/p>\n\n\n\n<p>Disse optimeringer g\u00e5r langt ud over niveauet for konventionel CUDA-udvikling, men er ekstremt vanskelige at vedligeholde. Men det er netop dette optimeringsniveau, der fuldt ud demonstrerer DeepSeek-teamets enest\u00e5ende tekniske evner.<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=MDk2ZDMyM2IzOGU5OWNmN2JhOTY2ZDZmMjhkOWYwZGFfUnFiV0hvbnQ0ZUFHSHg3WHpyMW5jYTRvMURPM1pDSTZfVG9rZW46QnZVNWJyUzBDb2FWeE54Ym4ybGNZNXlnbmFnXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<p>V3-papiret n\u00e6vner specifikt detaljer om PTX<\/p>\n\n\n\n<p>Det skyldes, at virksomheder som DeepSeek under det dobbelte pres fra en global GPU-mangel og amerikanske restriktioner var n\u00f8dt til at finde innovative l\u00f8sninger.<\/p>\n\n\n\n<p>Heldigvis har de gjort betydelige gennembrud p\u00e5 dette omr\u00e5de.<\/p>\n\n\n\n<p>En udvikler mener, at \"GPU-programmering p\u00e5 lavt niveau er den rigtige retning. Jo mere optimering, jo lavere omkostninger eller pr\u00e6stationsbudget, der kan bruges til andre fremskridt uden yderligere udgifter.\"<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=MmEzYzA5ZTVmNjE4ZTlhMWE0NWU1ZTgyZTA2NmUxMDJfUWdNb21QeEFtUWlFSFA1aGFWZEZJMzlUNjdPT3J5NXRfVG9rZW46RWtaaGJ2UlBHbzk2VWF4TmxkeGNPeGdKblJnXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<p>Dette gennembrud har haft en betydelig indvirkning p\u00e5 markedet, og nogle investorer mener, at den nye model vil reducere eftersp\u00f8rgslen efter h\u00f8jtydende hardware, hvilket kan p\u00e5virke salgsresultaterne for virksomheder som NVIDIA.<\/p>\n\n\n\n<p>Men brancheveteraner, herunder Intels tidligere CEO Pat Gelsinger, mener, at AI-applikationer kan udnytte al tilg\u00e6ngelig computerkraft fuldt ud.<\/p>\n\n\n\n<p>Gelsinger ser DeepSeeks gennembrud som en ny m\u00e5de at integrere AI-funktioner i billige enheder til massemarkedet.<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=NzgzZjM2ZTVlOWM0OWI1MDE5OTI1NTQwNWRjYTI5Y2NfZ25sc2tPNFJ1UHZwemp1WEVlclU1cloxZXI5aHJMbEZfVG9rZW46SHlGTGJnNHpHbzNzbnd4bkxPQ2N4T0RyblZkXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"PTX_and_CUDA\"><\/span>PTX og CUDA<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>Betyder ankomsten af DeepSeek s\u00e5, at udviklingen af banebrydende LLM ikke l\u00e6ngere kr\u00e6ver GPU-klynger i stor skala?<\/p>\n\n\n\n<p>Vil Googles enorme investeringer i computerressourcer, <a href=\"https:\/\/openai.com\/\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">OpenAI<\/a>Er Meta og xAI i sidste ende spildt? Den generelle enighed blandt AI-udviklere er, at det ikke er tilf\u00e6ldet.<\/p>\n\n\n\n<p>Det er dog sikkert, at der stadig er et stort potentiale at udnytte med hensyn til databehandling og algoritmeoptimering, og der vil helt sikkert dukke flere innovative optimeringsmetoder op i fremtiden.<\/p>\n\n\n\n<p>Med V3-modellen af DeepSeek open source er detaljerne beskrevet i detaljer i den tekniske rapport.<\/p>\n\n\n\n<p>Rapporten dokumenterer de dybe underliggende optimeringer, som DeepSeek har udf\u00f8rt. Kort sagt kan graden af optimering opsummeres som \"de har genopbygget hele systemet fra bunden\".<\/p>\n\n\n\n<p>Som n\u00e6vnt ovenfor tilpassede DeepSeek GPU'ens kerneberegningsenheder (streaming multiprocessorkerner eller SM'er) til specifikke behov, da V3 blev tr\u00e6net ved hj\u00e6lp af H800 GPU'en.<\/p>\n\n\n\n<p>Af de i alt 132 SM'er afsatte de specifikt 20 til at h\u00e5ndtere kommunikationsopgaver mellem servere i stedet for computeropgaver.<\/p>\n\n\n\n<p>Denne tilpasning sker p\u00e5 PTX-niveau (parallel thread execution), som er NVIDIA GPU'ens instruktionss\u00e6t p\u00e5 lavt niveau.<\/p>\n\n\n\n<p>PTX k\u00f8rer p\u00e5 et niveau t\u00e6t p\u00e5 assemblersprog og muligg\u00f8r finkornet optimering som f.eks. registerallokering og tuning p\u00e5 tr\u00e5d\/tr\u00e5d-bundt-niveau. Men denne fine kontrol er kompleks og vanskelig at vedligeholde.<\/p>\n\n\n\n<p>Derfor foretr\u00e6kker udviklere normalt at bruge programmeringssprog p\u00e5 h\u00f8jt niveau som CUDA, der giver tilstr\u00e6kkelige optimeringer af ydeevnen til de fleste parallelle programmeringsopgaver og eliminerer behovet for optimeringer p\u00e5 lavt niveau.<\/p>\n\n\n\n<p>Men n\u00e5r det drejer sig om at maksimere effektiviteten af GPU-ressourcer og opn\u00e5 specifikke optimeringskrav, er udviklere n\u00f8dt til at ty til PTX.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"However_the_technical_barriers_remain\"><\/span>Men der er stadig tekniske barrierer<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>I den forbindelse sagde internetbrugeren Ian Cutress: \"Deepseeks brug af PTX fjerner ikke de tekniske barrierer for CUDA.\"<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=YTFkNWFkMTNiYjQzNDZiMDI3ZmYxYjA3MzExYjE1MGRfemNRaFdmM1R4MTMwUWVWTUxxbHN2SjZYNEhvazBrZlNfVG9rZW46SFlEU2IwNEd3b29kMGl4cmVaOGNTcHFZbmxjXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<p>CUDA er et sprog p\u00e5 h\u00f8jt niveau. Det g\u00f8r det lettere at udvikle biblioteker og gr\u00e6nseflader med NVIDIA GPU'er og underst\u00f8tter hurtig iterativ udvikling.<\/p>\n\n\n\n<p>CUDA kan optimere ydelsen ved at finjustere den underliggende kode (f.eks. PTX), og de grundl\u00e6ggende biblioteker er allerede f\u00e6rdige. Det meste software p\u00e5 produktionsniveau er i \u00f8jeblikket bygget p\u00e5 CUDA.<\/p>\n\n\n\n<p>PTX ligner mere et direkte forst\u00e5eligt assembler-sprog til GPU'en. Det fungerer p\u00e5 et lavt niveau og giver mulighed for optimering p\u00e5 mikroniveau.<\/p>\n\n\n\n<p>Hvis du v\u00e6lger at programmere i PTX, betyder det, at ingen af de f\u00f8rn\u00e6vnte indbyggede CUDA-biblioteker kan bruges. Det er en meget besv\u00e6rlig opgave, som kr\u00e6ver dybtg\u00e5ende ekspertise i hardware- og runtime-problemer.<\/p>\n\n\n\n<p>Men hvis udviklerne fuldt ud forst\u00e5r, hvad de laver, kan de faktisk opn\u00e5 bedre ydeevne og optimering p\u00e5 k\u00f8rselstidspunktet.<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=MGU3N2MyY2Y5NDg0MzAxYjkzNzI4MDg3YTRjN2JiNjJfSTI4Um5wZkxwamJMNjRLdmx6TnFmcTlhVDhLbTEyYlhfVG9rZW46SVpVcWJ4TmRtbzdYRjF4RFk5SWN4OWdjbmRlXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<p>I \u00f8jeblikket er hovedstr\u00f8mmen i NVIDIA-\u00f8kosystemet stadig brugen af CUDA.<\/p>\n\n\n\n<p>Udviklere, der \u00f8nsker at f\u00e5 10-20% ekstra ydelse eller energieffektivitet ud af deres beregningsbelastning, som f.eks. virksomheder, der implementerer modeller i skyen og s\u00e6lger token-tjenester, har faktisk optimeret fra CUDA-niveauet til PTX-niveauet. De er villige til at investere tid, fordi det er det v\u00e6rd i det lange l\u00f8b.<\/p>\n\n\n\n<p>Det skal bem\u00e6rkes, at PTX normalt er optimeret til en bestemt hardwaremodel og er vanskelig at overf\u00f8re mellem forskellig hardware, medmindre tilpasningslogikken er specialskrevet.<\/p>\n\n\n\n<p>Derudover kr\u00e6ver manuel indstilling af computerkernen en hel del udholdenhed, mod og en s\u00e6rlig evne til at bevare roen, fordi programmet kan have en hukommelsesfejl hver 5.000. cyklus.<\/p>\n\n\n\n<p>For de scenarier, hvor der virkelig er brug for PTX, og for de udviklere, der bliver betalt nok til at besk\u00e6ftige sig med disse problemer, udtrykker vi selvf\u00f8lgelig vores fulde forst\u00e5else og respekt.<\/p>\n\n\n\n<p>For alle andre udviklere anbefales det at forts\u00e6tte med at bruge CUDA eller andre avancerede varianter baseret p\u00e5 CUDA (eller MLIR).<\/p>","protected":false},"excerpt":{"rendered":"<p>Detaljer om DeepSeek V3-papiret: S\u00e5dan omg\u00e5r du CUDA-monopolet! DeepSeeks to nyligt udgivne modeller, DeepSeek-V3 og DeepSeek-R1, opn\u00e5r en ydeevne, der kan sammenlignes med lignende modeller fra OpenAI til en meget lavere pris. If\u00f8lge udenlandske medierapporter har de p\u00e5 bare to m\u00e5neder tr\u00e6net en MoE-sprogmodel med 671 milliarder parametre p\u00e5 en klynge af 2.048...<\/p>","protected":false},"author":2,"featured_media":684,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_kadence_starter_templates_imported_post":false,"_kad_post_transparent":"","_kad_post_title":"","_kad_post_layout":"","_kad_post_sidebar_id":"","_kad_post_content_style":"","_kad_post_vertical_padding":"","_kad_post_feature":"","_kad_post_feature_position":"","_kad_post_header":false,"_kad_post_footer":false,"footnotes":""},"categories":[1],"tags":[],"class_list":["post-710","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-uncategorized"],"_links":{"self":[{"href":"https:\/\/janusai.pro\/da\/wp-json\/wp\/v2\/posts\/710","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/janusai.pro\/da\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/janusai.pro\/da\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/janusai.pro\/da\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/janusai.pro\/da\/wp-json\/wp\/v2\/comments?post=710"}],"version-history":[{"count":1,"href":"https:\/\/janusai.pro\/da\/wp-json\/wp\/v2\/posts\/710\/revisions"}],"predecessor-version":[{"id":711,"href":"https:\/\/janusai.pro\/da\/wp-json\/wp\/v2\/posts\/710\/revisions\/711"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/janusai.pro\/da\/wp-json\/wp\/v2\/media\/684"}],"wp:attachment":[{"href":"https:\/\/janusai.pro\/da\/wp-json\/wp\/v2\/media?parent=710"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/janusai.pro\/da\/wp-json\/wp\/v2\/categories?post=710"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/janusai.pro\/da\/wp-json\/wp\/v2\/tags?post=710"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}