{"id":710,"date":"2025-01-29T12:02:22","date_gmt":"2025-01-29T12:02:22","guid":{"rendered":"https:\/\/janusai.pro\/?p=710"},"modified":"2025-01-29T12:02:40","modified_gmt":"2025-01-29T12:02:40","slug":"deepseek-v3-paper-details-how-to-bypass-the-cuda-monopoly","status":"publish","type":"post","link":"https:\/\/janusai.pro\/de\/deepseek-v3-paper-details-how-to-bypass-the-cuda-monopoly\/","title":{"rendered":"Einzelheiten zum DeepSeek V3-Papier: Wie man das CUDA-Monopol umgeht!"},"content":{"rendered":"<div style=\"margin-top: 0px; margin-bottom: 0px;\" class=\"sharethis-inline-share-buttons\" ><\/div>\n<p><a href=\"https:\/\/www.deepseek.com\/\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">DeepSeek V3<\/a> Einzelheiten zum Papier: Wie man das CUDA-Monopol umgeht!<\/p>\n\n\n\n<p>Die beiden k\u00fcrzlich ver\u00f6ffentlichten Modelle von DeepSeek, DeepSeek-V3 und DeepSeek-R1, erreichen eine Leistung, die mit \u00e4hnlichen Modellen von OpenAI vergleichbar ist, und das zu wesentlich geringeren Kosten.<\/p>\n\n\n\n<p>Ausl\u00e4ndischen Medienberichten zufolge haben sie in nur zwei Monaten ein MoE-Sprachmodell mit 671 Milliarden Parametern auf einem Cluster von 2.048 H800-GPUs trainiert, was zehnmal effizienter ist als die beste KI.<\/p>\n\n\n\n<p>Dieser Durchbruch wurde nicht durch den Einsatz von CUDA erreicht, sondern durch eine gro\u00dfe Anzahl feink\u00f6rniger Optimierungen und die Verwendung von NVIDIAs assembler\u00e4hnlicher PTX-Programmierung (Parallel Thread Execution).<\/p>\n\n\n\n<p><a href=\"https:\/\/www.deepseek.com\/\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">DeepSeek<\/a> war gezwungen, einen anderen Weg einzuschlagen als OpenAI und andere Unternehmen, die auf Brute-Force-Rechenleistung unter Hardware-Beschr\u00e4nkungen setzen. Es hat eine Reihe von technologischen Innovationen eingesetzt, um den Energiebedarf des Modells zu senken und gleichzeitig Leistungssteigerungen zu erzielen.<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=ZDM1YTM0ODZkYmQzOWNkNzc2ZTBmNzUwY2ZjOWYxMjZfYnUyVHFsb05ya0c1M0hvMGRUbk9CN3FVekR1ZjlQMEZfVG9rZW46TUtzM2JudThpb1p3NHJ4SlZNeWNWdU10bnNnXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<p>Einige begeisterte Kommentare von Internetnutzern:<\/p>\n\n\n\n<p>\"Wenn es in dieser Welt Gruppen von Menschen gibt, die so verr\u00fcckt sind, Dinge zu sagen wie 'CUDA ist zu langsam!<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=OGEyMmE3ZTJkODlkZDlmNjliZTI1MzI5YTE4ZWE3MjdfWWRBam5VTkVaV1ZsMFg3VzVTRjRDZlUzV2ZiSHZYT2RfVG9rZW46VGZsdWJrTzZHb243OUx4bEZsbmNmMFNzblFiXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=NzI1ZTBlMjJkMDI2N2MyMDdkMGI4YmU5OTJjNGM0YzFfZW4xbjVERFdhdGVObHBDUWR3NVZjbDRSM2lrVDlWRGlfVG9rZW46Q2N5MWIxV2ltbzdmZU14VXI2amNuZDk2bmRkXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=MDMyN2YyYjYwYTNkZDhmMmEyYWY2MjMzZGE3MGM1ZmFfM29veUZrRWdYODRGR0JVdWVVTnRoMzVwTWxjV09CT25fVG9rZW46SVE2dGJWek9Mb29jaTJ4ZnkzWWN5bUZWbnVnXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<div id=\"ez-toc-container\" class=\"ez-toc-v2_0_82_2 counter-hierarchy ez-toc-counter ez-toc-grey ez-toc-container-direction\">\n<div class=\"ez-toc-title-container\">\n<p class=\"ez-toc-title\" style=\"cursor:inherit\">Inhalts\u00fcbersicht<\/p>\n<span class=\"ez-toc-title-toggle\"><a href=\"#\" class=\"ez-toc-pull-right ez-toc-btn ez-toc-btn-xs ez-toc-btn-default ez-toc-toggle\" aria-label=\"Inhaltsverzeichnis umschalten\"><span class=\"ez-toc-js-icon-con\"><span class=\"\"><span class=\"eztoc-hide\" style=\"display:none;\">Umschalten auf<\/span><span class=\"ez-toc-icon-toggle-span\"><svg style=\"fill: #999;color:#999\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" class=\"list-377408\" width=\"20px\" height=\"20px\" viewbox=\"0 0 24 24\" fill=\"none\"><path d=\"M6 6H4v2h2V6zm14 0H8v2h12V6zM4 11h2v2H4v-2zm16 0H8v2h12v-2zM4 16h2v2H4v-2zm16 0H8v2h12v-2z\" fill=\"currentColor\"><\/path><\/svg><svg style=\"fill: #999;color:#999\" class=\"arrow-unsorted-368013\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"10px\" height=\"10px\" viewbox=\"0 0 24 24\" version=\"1.2\" baseprofile=\"tiny\"><path d=\"M18.2 9.3l-6.2-6.3-6.2 6.3c-.2.2-.3.4-.3.7s.1.5.3.7c.2.2.4.3.7.3h11c.3 0 .5-.1.7-.3.2-.2.3-.5.3-.7s-.1-.5-.3-.7zM5.8 14.7l6.2 6.3 6.2-6.3c.2-.2.3-.5.3-.7s-.1-.5-.3-.7c-.2-.2-.4-.3-.7-.3h-11c-.3 0-.5.1-.7.3-.2.2-.3.5-.3.7s.1.5.3.7z\"\/><\/svg><\/span><\/span><\/span><\/a><\/span><\/div>\n<nav><ul class='ez-toc-list ez-toc-list-level-1' ><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-1\" href=\"https:\/\/janusai.pro\/de\/deepseek-v3-paper-details-how-to-bypass-the-cuda-monopoly\/#Genius_geeks_fine-tune_PTX_to_maximize_GPU_performance\" >Geniale Geeks optimieren PTX zur Maximierung der GPU-Leistung<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-2\" href=\"https:\/\/janusai.pro\/de\/deepseek-v3-paper-details-how-to-bypass-the-cuda-monopoly\/#PTX_and_CUDA\" >PTX und CUDA<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-3\" href=\"https:\/\/janusai.pro\/de\/deepseek-v3-paper-details-how-to-bypass-the-cuda-monopoly\/#However_the_technical_barriers_remain\" >Die technischen Hindernisse bleiben jedoch bestehen<\/a><\/li><\/ul><\/nav><\/div>\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Genius_geeks_fine-tune_PTX_to_maximize_GPU_performance\"><\/span>Geniale Geeks optimieren PTX zur Maximierung der GPU-Leistung<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>NVIDIA PTX (Parallel Thread Execution) ist eine speziell f\u00fcr die NVIDIA-GPUs entwickelte Middle-Instruction-Set-Architektur, die zwischen den GPU-Hochsprachen (z. B. CUDA C\/C++) oder anderen Front-End-Sprachen und dem Low-Level-Maschinencode (Streaming Assembly oder SASS) angesiedelt ist.<\/p>\n\n\n\n<p>PTX ist eine Low-Level-Befehlssatzarchitektur, die die GPU als datenparalleles Rechenger\u00e4t darstellt und feink\u00f6rnige Optimierungen wie Registerzuweisung und Thread\/Thread-Bundle-Abstimmung erm\u00f6glicht, die mit Sprachen wie CUDA C\/C++ nicht m\u00f6glich sind.<\/p>\n\n\n\n<p>Wenn PTX in SASS konvertiert wird, wird es f\u00fcr eine bestimmte Generation von NVIDIA-GPUs optimiert.<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=MGIwZTQ0ZDdhMTgxYTBlMmEzZDE5OTczN2ZlZmEzNGFfc3I3T2U0UzNCOGdjd1ZHcktHd1hkd1RpcXlLbkxrU1FfVG9rZW46Vk05WWJ0a1Bob3NkYzl4bXpFc2N6anI3bktjXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<p>Beim Training des V3-Modells hat DeepSeek die NVIDIA H800 GPU neu konfiguriert:<\/p>\n\n\n\n<p>Von den 132 Stream-Prozessorkernen wurden 20 f\u00fcr die Kommunikation zwischen Servern zugewiesen, haupts\u00e4chlich f\u00fcr die Datenkomprimierung und -dekomprimierung, um die Verbindungsgrenze des Prozessors zu durchbrechen und die Geschwindigkeit der Transaktionsverarbeitung zu erh\u00f6hen.<\/p>\n\n\n\n<p>Um die Leistung zu maximieren, implementierte DeepSeek auch fortschrittliche Pipelining-Algorithmen durch zus\u00e4tzliche feink\u00f6rnige Thread\/Thread-Bundle-Anpassungen.<\/p>\n\n\n\n<p>Diese Optimierungen gehen weit \u00fcber das Niveau der konventionellen CUDA-Entwicklung hinaus, sind aber extrem schwierig zu pflegen. Doch gerade dieses Optimierungsniveau ist es, das die herausragenden technischen F\u00e4higkeiten des DeepSeek-Teams voll zur Geltung bringt.<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=MDk2ZDMyM2IzOGU5OWNmN2JhOTY2ZDZmMjhkOWYwZGFfUnFiV0hvbnQ0ZUFHSHg3WHpyMW5jYTRvMURPM1pDSTZfVG9rZW46QnZVNWJyUzBDb2FWeE54Ym4ybGNZNXlnbmFnXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<p>In dem V3-Papier wird ausdr\u00fccklich auf Details zu PTX hingewiesen<\/p>\n\n\n\n<p>Das liegt daran, dass Unternehmen wie DeepSeek unter dem doppelten Druck des weltweiten GPU-Mangels und der US-Beschr\u00e4nkungen nach innovativen L\u00f6sungen suchen mussten.<\/p>\n\n\n\n<p>Gl\u00fccklicherweise haben sie in diesem Bereich bedeutende Durchbr\u00fcche erzielt.<\/p>\n\n\n\n<p>Ein Entwickler glaubt, dass \"Low-Level-GPU-Programmierung die richtige Richtung ist. Je mehr Optimierung, desto geringer die Kosten bzw. das Leistungsbudget, das ohne zus\u00e4tzlichen Aufwand f\u00fcr andere Fortschritte genutzt werden kann.\"<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=MmEzYzA5ZTVmNjE4ZTlhMWE0NWU1ZTgyZTA2NmUxMDJfUWdNb21QeEFtUWlFSFA1aGFWZEZJMzlUNjdPT3J5NXRfVG9rZW46RWtaaGJ2UlBHbzk2VWF4TmxkeGNPeGdKblJnXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<p>Dieser Durchbruch hatte erhebliche Auswirkungen auf den Markt, und einige Investoren sind der Meinung, dass das neue Modell die Nachfrage nach Hochleistungshardware verringern wird, was sich auf die Verkaufszahlen von Unternehmen wie NVIDIA auswirken kann.<\/p>\n\n\n\n<p>Branchenveteranen, darunter der ehemalige Intel-CEO Pat Gelsinger, sind jedoch der Meinung, dass KI-Anwendungen die gesamte verf\u00fcgbare Rechenleistung voll aussch\u00f6pfen k\u00f6nnen.<\/p>\n\n\n\n<p>Gelsinger sieht in diesem Durchbruch von DeepSeek eine neue M\u00f6glichkeit, KI-Funktionen in kosteng\u00fcnstige Ger\u00e4te f\u00fcr den Massenmarkt einzubauen.<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=NzgzZjM2ZTVlOWM0OWI1MDE5OTI1NTQwNWRjYTI5Y2NfZ25sc2tPNFJ1UHZwemp1WEVlclU1cloxZXI5aHJMbEZfVG9rZW46SHlGTGJnNHpHbzNzbnd4bkxPQ2N4T0RyblZkXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"PTX_and_CUDA\"><\/span>PTX und CUDA<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>Bedeutet die Einf\u00fchrung von DeepSeek also, dass f\u00fcr die Entwicklung modernster LLM keine gro\u00dfen GPU-Cluster mehr erforderlich sind?<\/p>\n\n\n\n<p>Werden die enormen Investitionen in Computerressourcen von Google, <a href=\"https:\/\/openai.com\/\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">OpenAI<\/a>sind Meta und xAI letztendlich nutzlos? Der allgemeine Konsens unter KI-Entwicklern ist, dass dies nicht der Fall ist.<\/p>\n\n\n\n<p>Es ist jedoch sicher, dass es noch ein riesiges Potenzial f\u00fcr die Datenverarbeitung und die Optimierung von Algorithmen gibt, und in Zukunft werden sicherlich weitere innovative Optimierungsmethoden entwickelt werden.<\/p>\n\n\n\n<p>Da das V3-Modell von DeepSeek als Open Source verf\u00fcgbar ist, werden die Details in seinem technischen Bericht ausf\u00fchrlich offengelegt.<\/p>\n\n\n\n<p>Der Bericht dokumentiert die tiefgreifenden Optimierungen, die von DeepSeek durchgef\u00fchrt wurden. Kurz gesagt, der Grad der Optimierung l\u00e4sst sich so zusammenfassen: \"Sie haben das gesamte System von Grund auf neu aufgebaut.\"<\/p>\n\n\n\n<p>Wie bereits erw\u00e4hnt, hat DeepSeek beim Training des V3 mit dem H800-Grafikprozessor die Recheneinheiten des Grafikprozessors (Streaming-Multiprozessor-Kerne oder SMs) an die jeweiligen Anforderungen angepasst.<\/p>\n\n\n\n<p>Von den insgesamt 132 SMs wurden 20 speziell f\u00fcr die Kommunikation zwischen den Servern und nicht f\u00fcr Rechenaufgaben eingesetzt.<\/p>\n\n\n\n<p>Diese Anpassung erfolgt auf der PTX-Ebene (Parallel Thread Execution), dem Low-Level-Befehlssatz der NVIDIA-GPU.<\/p>\n\n\n\n<p>PTX l\u00e4uft auf einer Ebene, die der Assemblersprache nahe kommt, und erm\u00f6glicht feink\u00f6rnige Optimierungen wie die Registerzuweisung und die Abstimmung auf Thread-\/Thread-Bundle-Ebene. Diese Feinsteuerung ist jedoch komplex und schwer zu pflegen.<\/p>\n\n\n\n<p>Aus diesem Grund bevorzugen Entwickler in der Regel High-Level-Programmiersprachen wie CUDA, die ausreichende Leistungsoptimierungen f\u00fcr die meisten parallelen Programmieraufgaben bieten und die Notwendigkeit von Optimierungen auf niedriger Ebene \u00fcberfl\u00fcssig machen.<\/p>\n\n\n\n<p>Wenn es jedoch darum geht, die Effizienz der GPU-Ressourcen zu maximieren und bestimmte Optimierungsanforderungen zu erf\u00fcllen, m\u00fcssen die Entwickler auf PTX zur\u00fcckgreifen.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"However_the_technical_barriers_remain\"><\/span>Die technischen Hindernisse bleiben jedoch bestehen<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>Diesbez\u00fcglich sagte der Internetnutzer Ian Cutress: \"Deepseeks Verwendung von PTX beseitigt nicht die technischen Barrieren von CUDA.\"<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=YTFkNWFkMTNiYjQzNDZiMDI3ZmYxYjA3MzExYjE1MGRfemNRaFdmM1R4MTMwUWVWTUxxbHN2SjZYNEhvazBrZlNfVG9rZW46SFlEU2IwNEd3b29kMGl4cmVaOGNTcHFZbmxjXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<p>CUDA ist eine Hochsprache. Sie erleichtert die Entwicklung von Bibliotheken und Schnittstellen mit NVIDIA-GPUs und unterst\u00fctzt eine schnelle, iterative Entwicklung.<\/p>\n\n\n\n<p>CUDA kann die Leistung durch Feinabstimmung des zugrunde liegenden Codes (d. h. PTX) optimieren, und die grundlegenden Bibliotheken sind bereits vollst\u00e4ndig. Die meiste Software auf Produktionsebene wird derzeit auf CUDA aufgebaut.<\/p>\n\n\n\n<p>PTX \u00e4hnelt eher einer direkt verst\u00e4ndlichen Assemblersprache f\u00fcr die GPU. Es arbeitet auf einer niedrigen Ebene und erm\u00f6glicht eine Optimierung auf Mikroebene.<\/p>\n\n\n\n<p>Wenn Sie sich f\u00fcr die Programmierung in PTX entscheiden, bedeutet dies, dass keine der oben erw\u00e4hnten integrierten CUDA-Bibliotheken verwendet werden kann. Dies ist eine sehr m\u00fchsame Aufgabe, die fundiertes Fachwissen \u00fcber Hardware- und Laufzeitfragen erfordert.<\/p>\n\n\n\n<p>Wenn Entwickler jedoch genau wissen, was sie tun, k\u00f6nnen sie in der Tat eine bessere Leistung und Optimierung zur Laufzeit erreichen.<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=MGU3N2MyY2Y5NDg0MzAxYjkzNzI4MDg3YTRjN2JiNjJfSTI4Um5wZkxwamJMNjRLdmx6TnFmcTlhVDhLbTEyYlhfVG9rZW46SVpVcWJ4TmRtbzdYRjF4RFk5SWN4OWdjbmRlXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<p>Derzeit wird im NVIDIA-\u00d6kosystem haupts\u00e4chlich CUDA verwendet.<\/p>\n\n\n\n<p>Entwickler, die eine zus\u00e4tzliche 10-20% Leistung oder Energieeffizienz aus ihrer Rechenlast herausholen wollen, wie Unternehmen, die Modelle in der Cloud bereitstellen und Token-Dienste verkaufen, haben in der Tat von der CUDA-Ebene auf die PTX-Ebene optimiert. Sie sind bereit, Zeit zu investieren, weil es sich auf lange Sicht lohnt.<\/p>\n\n\n\n<p>Es ist zu beachten, dass PTX in der Regel f\u00fcr ein bestimmtes Hardwaremodell optimiert ist und sich nur schwer zwischen verschiedenen Hardwaremodellen portieren l\u00e4sst, es sei denn, es wird eine spezielle Anpassungslogik geschrieben.<\/p>\n\n\n\n<p>Dar\u00fcber hinaus erfordert die manuelle Abstimmung des Rechenkerns viel Ausdauer, Mut und eine besondere F\u00e4higkeit, ruhig zu bleiben, da das Programm alle 5.000 Zyklen einen Speicherzugriffsfehler haben kann.<\/p>\n\n\n\n<p>Nat\u00fcrlich haben wir f\u00fcr die Szenarien, in denen PTX wirklich ben\u00f6tigt wird, und f\u00fcr die Entwickler, die genug Geld haben, um sich mit diesen Problemen zu befassen, volles Verst\u00e4ndnis und Respekt.<\/p>\n\n\n\n<p>F\u00fcr alle anderen Entwickler ist es ratsam, weiterhin CUDA oder andere fortgeschrittene Varianten auf der Grundlage von CUDA (oder MLIR) zu verwenden.<\/p>","protected":false},"excerpt":{"rendered":"<p>Einzelheiten zum DeepSeek V3-Papier: Wie man das CUDA-Monopol umgeht! Die beiden k\u00fcrzlich ver\u00f6ffentlichten Modelle von DeepSeek, DeepSeek-V3 und DeepSeek-R1, erreichen eine Leistung, die mit \u00e4hnlichen Modellen von OpenAI vergleichbar ist, und das zu wesentlich geringeren Kosten. Ausl\u00e4ndischen Medienberichten zufolge trainierten sie in nur zwei Monaten ein MoE-Sprachmodell mit 671 Milliarden Parametern auf einem Cluster von 2.048...<\/p>","protected":false},"author":2,"featured_media":684,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_kadence_starter_templates_imported_post":false,"_kad_post_transparent":"","_kad_post_title":"","_kad_post_layout":"","_kad_post_sidebar_id":"","_kad_post_content_style":"","_kad_post_vertical_padding":"","_kad_post_feature":"","_kad_post_feature_position":"","_kad_post_header":false,"_kad_post_footer":false,"footnotes":""},"categories":[1],"tags":[],"class_list":["post-710","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-uncategorized"],"_links":{"self":[{"href":"https:\/\/janusai.pro\/de\/wp-json\/wp\/v2\/posts\/710","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/janusai.pro\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/janusai.pro\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/janusai.pro\/de\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/janusai.pro\/de\/wp-json\/wp\/v2\/comments?post=710"}],"version-history":[{"count":1,"href":"https:\/\/janusai.pro\/de\/wp-json\/wp\/v2\/posts\/710\/revisions"}],"predecessor-version":[{"id":711,"href":"https:\/\/janusai.pro\/de\/wp-json\/wp\/v2\/posts\/710\/revisions\/711"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/janusai.pro\/de\/wp-json\/wp\/v2\/media\/684"}],"wp:attachment":[{"href":"https:\/\/janusai.pro\/de\/wp-json\/wp\/v2\/media?parent=710"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/janusai.pro\/de\/wp-json\/wp\/v2\/categories?post=710"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/janusai.pro\/de\/wp-json\/wp\/v2\/tags?post=710"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}