{"id":710,"date":"2025-01-29T12:02:22","date_gmt":"2025-01-29T12:02:22","guid":{"rendered":"https:\/\/janusai.pro\/?p=710"},"modified":"2025-01-29T12:02:40","modified_gmt":"2025-01-29T12:02:40","slug":"deepseek-v3-paper-details-how-to-bypass-the-cuda-monopoly","status":"publish","type":"post","link":"https:\/\/janusai.pro\/es\/deepseek-v3-paper-details-how-to-bypass-the-cuda-monopoly\/","title":{"rendered":"Detalles del documento DeepSeek V3: C\u00f3mo eludir el monopolio de CUDA"},"content":{"rendered":"<div style=\"margin-top: 0px; margin-bottom: 0px;\" class=\"sharethis-inline-share-buttons\" ><\/div>\n<p><a href=\"https:\/\/www.deepseek.com\/\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">DeepSeek V3<\/a> detalles del art\u00edculo: C\u00f3mo eludir el monopolio de CUDA<\/p>\n\n\n\n<p>Los dos modelos de DeepSeek lanzados recientemente, DeepSeek-V3 y DeepSeek-R1, alcanzan un rendimiento comparable al de modelos similares de OpenAI a un coste mucho menor.<\/p>\n\n\n\n<p>Seg\u00fan informan los medios de comunicaci\u00f3n extranjeros, en s\u00f3lo dos meses entrenaron un modelo ling\u00fc\u00edstico MoE con 671.000 millones de par\u00e1metros en un cl\u00faster de 2.048 GPU H800, que es 10 veces m\u00e1s eficiente que la IA superior.<\/p>\n\n\n\n<p>Este avance no se consigui\u00f3 utilizando CUDA, sino a trav\u00e9s de un gran n\u00famero de optimizaciones de precisi\u00f3n y el uso de la programaci\u00f3n PTX (ejecuci\u00f3n paralela de hilos) de NVIDIA, similar a la de ensambladores.<\/p>\n\n\n\n<p><a href=\"https:\/\/www.deepseek.com\/\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">DeepSeek<\/a> se ha visto obligada a tomar un camino diferente al de OpenAI y otras empresas que conf\u00edan en la potencia de c\u00e1lculo por fuerza bruta con limitaciones de hardware. Ha recurrido a una serie de innovaciones tecnol\u00f3gicas para reducir los requisitos de potencia del modelo y lograr al mismo tiempo mejoras de rendimiento.<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=ZDM1YTM0ODZkYmQzOWNkNzc2ZTBmNzUwY2ZjOWYxMjZfYnUyVHFsb05ya0c1M0hvMGRUbk9CN3FVekR1ZjlQMEZfVG9rZW46TUtzM2JudThpb1p3NHJ4SlZNeWNWdU10bnNnXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<p>Algunos comentarios entusiastas de los internautas:<\/p>\n\n\n\n<p>\"En este mundo, si hay alg\u00fan grupo de personas lo suficientemente loco como para decir cosas como '\u00a1CUDA es demasiado lento!<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=OGEyMmE3ZTJkODlkZDlmNjliZTI1MzI5YTE4ZWE3MjdfWWRBam5VTkVaV1ZsMFg3VzVTRjRDZlUzV2ZiSHZYT2RfVG9rZW46VGZsdWJrTzZHb243OUx4bEZsbmNmMFNzblFiXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=NzI1ZTBlMjJkMDI2N2MyMDdkMGI4YmU5OTJjNGM0YzFfZW4xbjVERFdhdGVObHBDUWR3NVZjbDRSM2lrVDlWRGlfVG9rZW46Q2N5MWIxV2ltbzdmZU14VXI2amNuZDk2bmRkXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=MDMyN2YyYjYwYTNkZDhmMmEyYWY2MjMzZGE3MGM1ZmFfM29veUZrRWdYODRGR0JVdWVVTnRoMzVwTWxjV09CT25fVG9rZW46SVE2dGJWek9Mb29jaTJ4ZnkzWWN5bUZWbnVnXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<div id=\"ez-toc-container\" class=\"ez-toc-v2_0_82_2 counter-hierarchy ez-toc-counter ez-toc-grey ez-toc-container-direction\">\n<div class=\"ez-toc-title-container\">\n<p class=\"ez-toc-title\" style=\"cursor:inherit\">\u00cdndice<\/p>\n<span class=\"ez-toc-title-toggle\"><a href=\"#\" class=\"ez-toc-pull-right ez-toc-btn ez-toc-btn-xs ez-toc-btn-default ez-toc-toggle\" aria-label=\"Tabla de contenidos\"><span class=\"ez-toc-js-icon-con\"><span class=\"\"><span class=\"eztoc-hide\" style=\"display:none;\">Toggle<\/span><span class=\"ez-toc-icon-toggle-span\"><svg style=\"fill: #999;color:#999\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" class=\"list-377408\" width=\"20px\" height=\"20px\" viewbox=\"0 0 24 24\" fill=\"none\"><path d=\"M6 6H4v2h2V6zm14 0H8v2h12V6zM4 11h2v2H4v-2zm16 0H8v2h12v-2zM4 16h2v2H4v-2zm16 0H8v2h12v-2z\" fill=\"currentColor\"><\/path><\/svg><svg style=\"fill: #999;color:#999\" class=\"arrow-unsorted-368013\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"10px\" height=\"10px\" viewbox=\"0 0 24 24\" version=\"1.2\" baseprofile=\"tiny\"><path d=\"M18.2 9.3l-6.2-6.3-6.2 6.3c-.2.2-.3.4-.3.7s.1.5.3.7c.2.2.4.3.7.3h11c.3 0 .5-.1.7-.3.2-.2.3-.5.3-.7s-.1-.5-.3-.7zM5.8 14.7l6.2 6.3 6.2-6.3c.2-.2.3-.5.3-.7s-.1-.5-.3-.7c-.2-.2-.4-.3-.7-.3h-11c-.3 0-.5.1-.7.3-.2.2-.3.5-.3.7s.1.5.3.7z\"\/><\/svg><\/span><\/span><\/span><\/a><\/span><\/div>\n<nav><ul class='ez-toc-list ez-toc-list-level-1' ><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-1\" href=\"https:\/\/janusai.pro\/es\/deepseek-v3-paper-details-how-to-bypass-the-cuda-monopoly\/#Genius_geeks_fine-tune_PTX_to_maximize_GPU_performance\" >Los genios de la inform\u00e1tica ajustan PTX para maximizar el rendimiento de la GPU<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-2\" href=\"https:\/\/janusai.pro\/es\/deepseek-v3-paper-details-how-to-bypass-the-cuda-monopoly\/#PTX_and_CUDA\" >PTX y CUDA<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-3\" href=\"https:\/\/janusai.pro\/es\/deepseek-v3-paper-details-how-to-bypass-the-cuda-monopoly\/#However_the_technical_barriers_remain\" >Sin embargo, siguen existiendo obst\u00e1culos t\u00e9cnicos<\/a><\/li><\/ul><\/nav><\/div>\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Genius_geeks_fine-tune_PTX_to_maximize_GPU_performance\"><\/span>Los genios de la inform\u00e1tica ajustan PTX para maximizar el rendimiento de la GPU<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>NVIDIA PTX (Parallel Thread Execution) es una arquitectura de conjunto de instrucciones intermedio dise\u00f1ada espec\u00edficamente para sus GPU, que se sit\u00faa entre los lenguajes de programaci\u00f3n de alto nivel para GPU (como CUDA C\/C++) u otros lenguajes frontales y el c\u00f3digo m\u00e1quina de bajo nivel (ensamblador de flujo o SASS).<\/p>\n\n\n\n<p>PTX es una arquitectura de conjunto de instrucciones de bajo nivel que presenta la GPU como un dispositivo de c\u00e1lculo paralelo de datos, lo que permite realizar optimizaciones detalladas como la asignaci\u00f3n de registros y el ajuste del nivel de subprocesos\/hilos que no son posibles con lenguajes como CUDA C\/C++.<\/p>\n\n\n\n<p>Cuando PTX se convierte a SASS, se optimiza para una generaci\u00f3n espec\u00edfica de GPU NVIDIA.<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=MGIwZTQ0ZDdhMTgxYTBlMmEzZDE5OTczN2ZlZmEzNGFfc3I3T2U0UzNCOGdjd1ZHcktHd1hkd1RpcXlLbkxrU1FfVG9rZW46Vk05WWJ0a1Bob3NkYzl4bXpFc2N6anI3bktjXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<p>Al entrenar el modelo V3, DeepSeek reconfigur\u00f3 la GPU NVIDIA H800:<\/p>\n\n\n\n<p>De los 132 n\u00facleos del procesador de flujo, 20 se asignaron a la comunicaci\u00f3n entre servidores, principalmente para la compresi\u00f3n y descompresi\u00f3n de datos, con el fin de superar el l\u00edmite de conexi\u00f3n del procesador y mejorar la velocidad de procesamiento de las transacciones.<\/p>\n\n\n\n<p>Para maximizar el rendimiento, DeepSeek tambi\u00e9n ha implementado algoritmos avanzados de pipelining mediante ajustes adicionales de nivel de hilo\/hilo.<\/p>\n\n\n\n<p>Estas optimizaciones van mucho m\u00e1s all\u00e1 del nivel de desarrollo CUDA convencional, pero son extremadamente dif\u00edciles de mantener. Sin embargo, este nivel de optimizaci\u00f3n es precisamente lo que demuestra plenamente la extraordinaria capacidad t\u00e9cnica del equipo de DeepSeek.<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=MDk2ZDMyM2IzOGU5OWNmN2JhOTY2ZDZmMjhkOWYwZGFfUnFiV0hvbnQ0ZUFHSHg3WHpyMW5jYTRvMURPM1pDSTZfVG9rZW46QnZVNWJyUzBDb2FWeE54Ym4ybGNZNXlnbmFnXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<p>El documento V3 menciona espec\u00edficamente detalles sobre PTX<\/p>\n\n\n\n<p>Esto se debe a que, bajo la doble presi\u00f3n de la escasez mundial de GPU y las restricciones estadounidenses, empresas como DeepSeek tuvieron que buscar soluciones innovadoras.<\/p>\n\n\n\n<p>Afortunadamente, han logrado avances significativos en este campo.<\/p>\n\n\n\n<p>Un desarrollador cree que \"la programaci\u00f3n de bajo nivel en la GPU es la direcci\u00f3n correcta. Cuanta m\u00e1s optimizaci\u00f3n, menor es el coste, o el presupuesto de rendimiento que puede utilizarse para otros avances sin gasto adicional.\"<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=MmEzYzA5ZTVmNjE4ZTlhMWE0NWU1ZTgyZTA2NmUxMDJfUWdNb21QeEFtUWlFSFA1aGFWZEZJMzlUNjdPT3J5NXRfVG9rZW46RWtaaGJ2UlBHbzk2VWF4TmxkeGNPeGdKblJnXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<p>Este avance ha tenido un impacto significativo en el mercado y algunos inversores creen que el nuevo modelo reducir\u00e1 la demanda de hardware de alto rendimiento, lo que puede afectar al rendimiento de las ventas de empresas como NVIDIA.<\/p>\n\n\n\n<p>Sin embargo, los veteranos del sector, entre ellos el ex CEO de Intel Pat Gelsinger, creen que las aplicaciones de IA pueden aprovechar al m\u00e1ximo toda la potencia inform\u00e1tica disponible.<\/p>\n\n\n\n<p>Gelsinger ve en este avance de DeepSeek una nueva forma de incorporar capacidades de IA en dispositivos de bajo coste para el mercado de masas.<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=NzgzZjM2ZTVlOWM0OWI1MDE5OTI1NTQwNWRjYTI5Y2NfZ25sc2tPNFJ1UHZwemp1WEVlclU1cloxZXI5aHJMbEZfVG9rZW46SHlGTGJnNHpHbzNzbnd4bkxPQ2N4T0RyblZkXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"PTX_and_CUDA\"><\/span>PTX y CUDA<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>Entonces, \u00bfsignifica la llegada de DeepSeek que el desarrollo de LLM de vanguardia ya no requiere clusters de GPU a gran escala?<\/p>\n\n\n\n<p>\u00bfSer\u00e1n las enormes inversiones en recursos inform\u00e1ticos de Google, <a href=\"https:\/\/openai.com\/\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">OpenAI<\/a>\u00bfA la larga, Meta y xAI se echan a perder? El consenso general entre los desarrolladores de IA es que no.<\/p>\n\n\n\n<p>Sin embargo, no cabe duda de que a\u00fan queda un enorme potencial por explotar en t\u00e9rminos de procesamiento de datos y optimizaci\u00f3n de algoritmos, y seguramente surgir\u00e1n m\u00e9todos de optimizaci\u00f3n m\u00e1s innovadores en el futuro.<\/p>\n\n\n\n<p>Con el modelo V3 de DeepSeek de c\u00f3digo abierto, los detalles se revelan pormenorizadamente en su informe t\u00e9cnico.<\/p>\n\n\n\n<p>El informe documenta las profundas optimizaciones subyacentes realizadas por DeepSeek. En pocas palabras, el grado de optimizaci\u00f3n se resume en que \"han reconstruido todo el sistema desde cero\".<\/p>\n\n\n\n<p>Como ya se ha mencionado, al entrenar el V3 con la GPU H800, DeepSeek personaliz\u00f3 las unidades de c\u00e1lculo b\u00e1sicas de la GPU (n\u00facleos multiprocesador de streaming o SM) para satisfacer necesidades espec\u00edficas.<\/p>\n\n\n\n<p>Del total de 132 SM, asignaron espec\u00edficamente 20 para gestionar tareas de comunicaci\u00f3n entre servidores en lugar de tareas inform\u00e1ticas.<\/p>\n\n\n\n<p>Esta personalizaci\u00f3n se realiza en el nivel PTX (ejecuci\u00f3n paralela de hilos), que es el conjunto de instrucciones de bajo nivel de la GPU NVIDIA.<\/p>\n\n\n\n<p>PTX se ejecuta a un nivel cercano al del lenguaje ensamblador y permite optimizaciones muy precisas, como la asignaci\u00f3n de registros y el ajuste a nivel de subprocesos y paquetes de subprocesos. Sin embargo, este control preciso es complejo y dif\u00edcil de mantener.<\/p>\n\n\n\n<p>Por este motivo, los desarrolladores suelen preferir utilizar lenguajes de programaci\u00f3n de alto nivel como CUDA, que proporcionan suficientes optimizaciones de rendimiento para la mayor\u00eda de las tareas de programaci\u00f3n paralela y eliminan la necesidad de optimizaciones de bajo nivel.<\/p>\n\n\n\n<p>Sin embargo, cuando se trata de maximizar la eficiencia de los recursos de la GPU y alcanzar requisitos de optimizaci\u00f3n espec\u00edficos, los desarrolladores tienen que recurrir a PTX.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"However_the_technical_barriers_remain\"><\/span>Sin embargo, siguen existiendo obst\u00e1culos t\u00e9cnicos<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>A este respecto, el internauta Ian Cutress afirm\u00f3: \"El uso de PTX por parte de Deepseek no elimina las barreras t\u00e9cnicas de CUDA\".<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=YTFkNWFkMTNiYjQzNDZiMDI3ZmYxYjA3MzExYjE1MGRfemNRaFdmM1R4MTMwUWVWTUxxbHN2SjZYNEhvazBrZlNfVG9rZW46SFlEU2IwNEd3b29kMGl4cmVaOGNTcHFZbmxjXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<p>CUDA es un lenguaje de alto nivel. Facilita el desarrollo de librer\u00edas e interfaces con las GPU NVIDIA y permite un r\u00e1pido desarrollo iterativo.<\/p>\n\n\n\n<p>CUDA puede optimizar el rendimiento ajustando el c\u00f3digo subyacente (es decir, PTX), y las librer\u00edas b\u00e1sicas ya est\u00e1n completas. Actualmente, la mayor parte del software de producci\u00f3n se basa en CUDA.<\/p>\n\n\n\n<p>PTX es m\u00e1s similar a un lenguaje ensamblador directamente comprensible para la GPU. Funciona a bajo nivel y permite la optimizaci\u00f3n a micronivel.<\/p>\n\n\n\n<p>Si se opta por programar en PTX, significa que no se puede utilizar ninguna de las bibliotecas CUDA incorporadas antes mencionadas. Se trata de una tarea muy tediosa que requiere profundos conocimientos en cuestiones de hardware y tiempo de ejecuci\u00f3n.<\/p>\n\n\n\n<p>Sin embargo, si los desarrolladores entienden perfectamente lo que est\u00e1n haciendo, pueden conseguir un mejor rendimiento y optimizaci\u00f3n en tiempo de ejecuci\u00f3n.<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/rmy9ct2fln.feishu.cn\/space\/api\/box\/stream\/download\/asynccode\/?code=MGU3N2MyY2Y5NDg0MzAxYjkzNzI4MDg3YTRjN2JiNjJfSTI4Um5wZkxwamJMNjRLdmx6TnFmcTlhVDhLbTEyYlhfVG9rZW46SVpVcWJ4TmRtbzdYRjF4RFk5SWN4OWdjbmRlXzE3MzgxNTE4NjQ6MTczODE1NTQ2NF9WNA\" alt=\"\"\/><\/figure>\n\n\n\n<p>Actualmente, la corriente principal del ecosistema NVIDIA sigue siendo el uso de CUDA.<\/p>\n\n\n\n<p>Los desarrolladores que quieren obtener un 10-20% extra de rendimiento o eficiencia energ\u00e9tica de su carga computacional, como las empresas que despliegan modelos en la nube y venden servicios de tokens, s\u00ed han optimizado desde el nivel CUDA hasta el nivel PTX. Est\u00e1n dispuestos a invertir tiempo porque a la larga merece la pena.<\/p>\n\n\n\n<p>Hay que tener en cuenta que PTX suele estar optimizado para un modelo de hardware espec\u00edfico y es dif\u00edcil de portar entre diferentes hardware a menos que se escriba especialmente la l\u00f3gica de adaptaci\u00f3n.<\/p>\n\n\n\n<p>Adem\u00e1s, el ajuste manual del n\u00facleo de c\u00e1lculo requiere mucha perseverancia, valent\u00eda y una habilidad especial para mantener la calma, porque el programa puede tener un error de acceso a memoria cada 5.000 ciclos.<\/p>\n\n\n\n<p>Por supuesto, para aquellos escenarios en los que PTX es realmente necesario, y para aquellos desarrolladores a los que se les paga lo suficiente como para ocuparse de estos temas, expresamos nuestra total comprensi\u00f3n y respeto.<\/p>\n\n\n\n<p>Para el resto de desarrolladores, es aconsejable seguir utilizando CUDA u otras variantes avanzadas basadas en CUDA (o MLIR).<\/p>","protected":false},"excerpt":{"rendered":"<p>Detalles del documento DeepSeek V3: C\u00f3mo saltarse el monopolio de CUDA Los dos modelos de DeepSeek publicados recientemente, DeepSeek-V3 y DeepSeek-R1, consiguen un rendimiento comparable al de modelos similares de OpenAI a un coste mucho menor. Seg\u00fan informan medios extranjeros, en s\u00f3lo dos meses entrenaron un modelo de lenguaje MoE con 671.000 millones de par\u00e1metros en un cl\u00faster de 2.048...<\/p>","protected":false},"author":2,"featured_media":684,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_kadence_starter_templates_imported_post":false,"_kad_post_transparent":"","_kad_post_title":"","_kad_post_layout":"","_kad_post_sidebar_id":"","_kad_post_content_style":"","_kad_post_vertical_padding":"","_kad_post_feature":"","_kad_post_feature_position":"","_kad_post_header":false,"_kad_post_footer":false,"footnotes":""},"categories":[1],"tags":[],"class_list":["post-710","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-uncategorized"],"_links":{"self":[{"href":"https:\/\/janusai.pro\/es\/wp-json\/wp\/v2\/posts\/710","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/janusai.pro\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/janusai.pro\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/janusai.pro\/es\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/janusai.pro\/es\/wp-json\/wp\/v2\/comments?post=710"}],"version-history":[{"count":1,"href":"https:\/\/janusai.pro\/es\/wp-json\/wp\/v2\/posts\/710\/revisions"}],"predecessor-version":[{"id":711,"href":"https:\/\/janusai.pro\/es\/wp-json\/wp\/v2\/posts\/710\/revisions\/711"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/janusai.pro\/es\/wp-json\/wp\/v2\/media\/684"}],"wp:attachment":[{"href":"https:\/\/janusai.pro\/es\/wp-json\/wp\/v2\/media?parent=710"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/janusai.pro\/es\/wp-json\/wp\/v2\/categories?post=710"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/janusai.pro\/es\/wp-json\/wp\/v2\/tags?post=710"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}