{"id":13378,"date":"2025-01-27T17:00:59","date_gmt":"2025-01-27T16:00:59","guid":{"rendered":"https:\/\/www.verificaremails.com\/cerca-in-profondita\/"},"modified":"2025-01-27T17:17:33","modified_gmt":"2025-01-27T16:17:33","slug":"deep-seek","status":"publish","type":"post","link":"https:\/\/www.verificaremails.com\/it\/deep-seek\/","title":{"rendered":"Deep Seek AI: il nuovo motore di intelligenza artificiale batte ChatGPT nei test tecnici"},"content":{"rendered":"<p>Sapevi che Deep Seek AI \u00e8 riuscita a superare altri modelli di AI con un <a href=\"https:\/\/www.androidauthority.com\/deepseek-vs-chatgpt-3520224\/\" target=\"_blank\" rel=\"nofollow noopener\">investimento di soli 5,57 milioni di dollari<\/a>, rispetto ai 600 milioni di dollari costati per addestrare altri modelli leader? Questa nuova tecnologia sta rivoluzionando il panorama dell&#8217;IA, dimostrando che l&#8217;innovazione non richiede sempre budget astronomici. L&#8217;IA Deep Seek non si distingue solo per l&#8217;efficienza dei costi, ma anche per le sue prestazioni superiori nei test tecnici, in particolare nella programmazione e nel ragionamento matematico. Inoltre, permette di caricare fino a 50 file da 100 MB contemporaneamente, superando in modo significativo i limiti degli altri modelli attuali. In questo articolo scoprirai come questa tecnologia open source sta trasformando il campo dell&#8217;intelligenza artificiale, le sue capacit\u00e0 tecniche uniche e perch\u00e9 esperti di spicco come Marc Andreessen la considerano un &#8220;momento Sputnik&#8221; per il settore dell&#8217;AI.<\/p>\n<h2>Architettura tecnica di DeepSeek AI<\/h2>\n<p>L&#8217;architettura tecnica di Deep Seek AI rappresenta una svolta significativa nel campo dell&#8217;intelligenza artificiale, basata su un sistema Mixture-of-Experts (MoE) che gestisce <a href=\"https:\/\/arxiv.org\/html\/2412.19437v1\" target=\"_blank\" rel=\"nofollow noopener\">671 miliardi di parametri<\/a> totali <a href=\"https:\/\/arxiv.org\/html\/2412.19437v1\" target=\"_blank\" rel=\"nofollow noopener\">.<\/a><\/p>\n<h3>Modello di linguaggio e di elaborazione<\/h3>\n<p>Il core Deep Seek AI utilizza un&#8217;innovativa architettura MoE che attiva solo 37 miliardi di parametri per token, consentendo un&#8217;eccezionale efficienza computazionale. Inoltre, implementa un meccanismo di attenzione latente multi-testa (MLA) che ottimizza l&#8217;elaborazione delle informazioni utilizzando tecniche di compressione a basso rango. Il modello incorpora una strategia ausiliaria di bilanciamento del carico senza perdite, progettata appositamente per mantenere stabili le prestazioni durante l&#8217;elaborazione dei dati. Utilizza inoltre un framework di formazione a precisione mista FP8, convalidandone per la prima volta l&#8217;efficacia su un modello di questa portata.<\/p>\n<h3>Capacit\u00e0 di ragionamento avanzate<\/h3>\n<p>Deep Seek AI eccelle nei compiti di ragionamento complessi, raggiungendo un&#8217;<a href=\"https:\/\/www.marktechpost.com\/2025\/01\/20\/deepseek-ai-releases-deepseek-r1-zero-and-deepseek-r1-first-generation-reasoning-models-that-incentivize-reasoning-capability-in-llms-via-reinforcement-learning\/\" target=\"_blank\" rel=\"nofollow noopener\">accuratezza del 79,8% nei test AIME 2024<\/a> e un&#8217;impressionante accuratezza del 97,3% nelle valutazioni MATH-500. Inoltre, il modello dimostra capacit\u00e0 eccezionali nel ragionamento basato sui fatti, ottenendo il 71,5% nei test GPQA Diamond. Il sistema implementa un processo di &#8220;catena di pensiero&#8221; che consente di:<\/p>\n<ul>\n<li>Scomposizione di problemi complessi in componenti gestibili<\/li>\n<li>Valutare pi\u00f9 strategie di soluzione<\/li>\n<li>Adattare il proprio ragionamento in base al contesto specifico<\/li>\n<\/ul>\n<h3>Integrazione con i sistemi esistenti<\/h3>\n<p>L&#8217;architettura di Deep Seek IA facilita la perfetta integrazione con i sistemi aziendali esistenti. Il modello supporta finestre di contesto fino a 128.000 token, consentendo l&#8217;elaborazione di documenti di grandi dimensioni e set di dati complessi. In particolare, il sistema utilizza un framework che consente una sovrapposizione quasi totale tra calcolo e comunicazione nella formazione MoE tra i nodi. Questa caratteristica migliora significativamente l&#8217;efficienza della formazione e riduce i costi operativi. Il modello incorpora anche funzionalit\u00e0 di predizione multi-token, che non solo ne migliorano le prestazioni ma consentono anche la decodifica speculativa per accelerare l&#8217;inferenza. Questa funzionalit\u00e0 \u00e8 particolarmente utile negli ambienti che richiedono un&#8217;elaborazione in tempo reale.<\/p>\n<h2>Analisi comparativa delle prestazioni<\/h2>\n<p>I risultati dei benchmark dimostrano le eccezionali prestazioni di Deep Seek AI in diverse aree di valutazione.<\/p>\n<h3>Test di ragionamento e logica<\/h3>\n<p>Nelle valutazioni matematiche avanzate, Deep Seek AI ha ottenuto un&#8217;impressionante performance del <a href=\"https:\/\/www.drivingeco.com\/en\/ia-china-pisa-fuerte-deepseek-r1-supera-chatgpt-rendimiento-eficiencia\/\" target=\"_blank\" rel=\"nofollow noopener\">79,8% nei test AIME 2024<\/a>, superando altri modelli leader. Ha anche ottenuto un notevole 97,3% in MATH-500, stabilendo un nuovo standard nel ragionamento matematico. Inoltre, il modello ha dimostrato capacit\u00e0 eccezionali nei test di ragionamento generale, ottenendo il 90,8% in MMLU. In particolare, nei test di ragionamento GPQA diamond ha ottenuto un eccezionale 71,5%, dimostrando la sua capacit\u00e0 di gestire problemi complessi.<\/p>\n<h3>Valutazione dell&#8217;elaborazione del linguaggio naturale<\/h3>\n<p>Nel campo dell&#8217;elaborazione del linguaggio naturale, Deep Seek AI eccelle per la sua capacit\u00e0 di mostrare il suo processo di ragionamento interno. Questa caratteristica le permette di:<\/p>\n<ul>\n<li>Analisi dettagliata del processo di pensiero<\/li>\n<li>Convalida passo dopo passo delle soluzioni<\/li>\n<li>Spiegazione chiara delle decisioni prese<\/li>\n<\/ul>\n<h3>Metriche di efficienza computazionale<\/h3>\n<p>L&#8217;efficienza computazionale di Deep Seek AI \u00e8 evidenziata dalla sua architettura MoE (Mixture-of-Experts), che attiva solo 37 miliardi di parametri per token durante l&#8217;inferenza, nonostante abbia 671 miliardi di parametri totali. Questa ottimizzazione si traduce in: In particolare, il modello dimostra una notevole efficienza nell&#8217;elaborazione dei dati, consentendo di gestire contesti fino a 128.000 token. Inoltre, l&#8217;architettura implementa tecniche avanzate di elaborazione in tempo reale, garantendo risposte rapide anche in compiti complessi. Il sistema utilizza le operazioni MAC (Multiply-Accumulate) per ottimizzare le prestazioni di calcolo, consentendo un&#8217;esecuzione pi\u00f9 efficiente delle operazioni matematiche fondamentali. Inoltre, l&#8217;implementazione delle FLOP (Floating Point Operations) facilita la misurazione accurata delle prestazioni del modello e della complessit\u00e0 computazionale. Nei test di programmazione, Deep Seek AI ha raggiunto il <a href=\"https:\/\/www.drivingeco.com\/en\/ia-china-pisa-fuerte-deepseek-r1-supera-chatgpt-rendimiento-eficiencia\/\" target=\"_blank\" rel=\"nofollow noopener\">96,3 percentile in Codeforces<\/a>, dimostrando la sua capacit\u00e0 di risolvere in modo efficiente problemi tecnici complessi. Inoltre, nelle valutazioni del codice verificate da SWE, ha raggiunto un tasso di risoluzione del 49,2%, confermando la sua abilit\u00e0 in compiti di programmazione avanzati.<\/p>\n<h2>Innovazioni AI open source<\/h2>\n<p>L&#8217;approccio open source di Deep Seek AI segna una svolta nello sviluppo di modelli di intelligenza artificiale. Con la licenza MIT, il modello consente agli utenti di scaricare e modificare il codice senza alcun costo, stabilendo un nuovo standard di accessibilit\u00e0 e trasparenza.<\/p>\n<h3>Vantaggi del modello open source<\/h3>\n<p>L&#8217;implementazione dell&#8217;open source offre vantaggi significativi alle organizzazioni di tutte le dimensioni. In particolare, uno studio di IBM ha rilevato che il 51% delle aziende che utilizzano strumenti open source ha registrato un ritorno sull&#8217;investimento positivo, rispetto al 41% di quelle che non lo hanno fatto. Inoltre, questo modello rende tutto pi\u00f9 semplice:<\/p>\n<ul>\n<li>Riduzione significativa dei costi di sviluppo e manutenzione<\/li>\n<li>Maggiore trasparenza e sicurezza nel codice<\/li>\n<li>Flessibilit\u00e0 nell&#8217;adattare il modello a esigenze specifiche<\/li>\n<li>Eliminazione delle tasse di licenza<\/li>\n<\/ul>\n<h3>Contributi della comunit\u00e0<\/h3>\n<p>La comunit\u00e0 globale di sviluppatori contribuisce attivamente al continuo miglioramento di Deep Seek AI. In particolare, il modello beneficia dell&#8217;esperienza collettiva di programmatori ed esperti di IA di tutto il mondo, favorendo l&#8217;innovazione collaborativa e accelerando lo sviluppo di nuove funzionalit\u00e0. Inoltre, la trasparenza insita nell&#8217;open source permette alla comunit\u00e0 di identificare e risolvere rapidamente potenziali pregiudizi e problemi etici. Questa collaborazione aperta si \u00e8 dimostrata particolarmente preziosa per ottimizzare le prestazioni dei modelli e migliorare l&#8217;efficienza computazionale.<\/p>\n<h3>Miglioramenti e aggiornamenti continui<\/h3>\n<p>Il continuo sviluppo di Deep Seek AI beneficia di un ecosistema di innovazione dinamico. Inoltre, il modello incorpora regolarmente i miglioramenti suggeriti dalla comunit\u00e0, consentendo un&#8217;evoluzione costante e un adattamento alle nuove esigenze. I recenti aggiornamenti includono ottimizzazioni nell&#8217;elaborazione del linguaggio naturale e miglioramenti nell&#8217;efficienza computazionale. Inoltre, l&#8217;implementazione di nuove tecniche di formazione ha ridotto significativamente i costi di sviluppo, richiedendo solo 5,73 milioni di euro rispetto ai miliardi investiti dai concorrenti. In particolare, l&#8217;approccio open source ha facilitato l&#8217;integrazione di diversi framework di distribuzione, tra cui SGLang, LMDeploy e TensorRT-LLM, garantendo una maggiore flessibilit\u00e0 nell&#8217;implementazione e nell&#8217;ottimizzazione del modello in base alle esigenze specifiche di ciascun utente.<\/p>\n<h2>Casi d&#8217;uso tecnici<\/h2>\n<p>Le capacit\u00e0 tecniche di Deep Seek AI si manifestano in un&#8217;ampia gamma di applicazioni pratiche che stanno trasformando i processi di sviluppo e analisi.<\/p>\n<h3>Sviluppo e debug del software<\/h3>\n<p>Deep Seek AI eccelle nei compiti di programmazione, raggiungendo un impressionante <a href=\"https:\/\/daily.dev\/blog\/deepseek-everything-you-need-to-know-about-this-new-llm-in-one-place\" target=\"_blank\" rel=\"nofollow noopener\">96,3 percentile nei test di Codeforces<\/a>. Nello sviluppo di software, il sistema riduce i tempi di debugging fino al 40% e offre funzionalit\u00e0 avanzate per:<\/p>\n<ul>\n<li>Generazione automatica del codice con evidenziazione della sintassi<\/li>\n<li>Identificazione e correzione degli errori in tempo reale<\/li>\n<li>Ottimizzazione e refactoring del codice esistente<\/li>\n<li>Analisi dei pattern per la prevenzione dei bug<\/li>\n<\/ul>\n<h3>Analisi di dati complessi<\/h3>\n<p>Nello specifico dell&#8217;elaborazione dei dati, Deep Seek AI si distingue per la sua capacit\u00e0 di <a href=\"https:\/\/daily.dev\/blog\/deepseek-everything-you-need-to-know-about-this-new-llm-in-one-place\" target=\"_blank\" rel=\"nofollow noopener\">gestire contesti fino a 128K token<\/a>, consentendo l&#8217;analisi di grandi insiemi di dati. Inoltre, il sistema implementa tecniche di elaborazione avanzate che facilitano: L&#8217;interpretazione di dati complessi grazie ad algoritmi di deep learning; allo stesso modo, il modello dimostra un&#8217;eccezionale accuratezza nell&#8217;analisi predittiva, raggiungendo tassi di efficienza superiori al 60% nelle attivit\u00e0 di elaborazione dei dati.<\/p>\n<h3>Automazione dei processi<\/h3>\n<p>In particolare, Deep Seek AI rivoluziona l&#8217;<a href=\"https:\/\/www.verificaremails.com\/como-funciona-una-verificador-de-direcciones-de-correo-electronico\/\">automazione dei flussi di lavoro<\/a> integrandosi con le piattaforme pi\u00f9 diffuse. Il sistema \u00e8 in grado di automatizzare le attivit\u00e0 ripetitive con una precisione del 95%, riducendo in modo significativo il tempo dedicato ai processi manuali. La piattaforma facilita la creazione di flussi di lavoro personalizzati, consentendo di:<\/p>\n<ul>\n<li>Automazione delle e-mail e delle comunicazioni<\/li>\n<li>Gestione dei documenti e analisi dei contenuti<\/li>\n<li>Elaborazione dei dati in tempo reale<\/li>\n<li>Integrazione con i sistemi aziendali esistenti<\/li>\n<\/ul>\n<p>Inoltre, il modello incorpora funzionalit\u00e0 di monitoraggio automatico che controllano i flussi di lavoro ogni 15 minuti, garantendo la continuit\u00e0 e l&#8217;efficienza dei processi automatizzati. \u00c8 stato dimostrato che l&#8217;implementazione di queste automazioni riduce i costi operativi in media del 35%.<\/p>\n<h2>Implementazione e implementazione<\/h2>\n<p>Per implementare Deep Seek IA in modo efficace, \u00e8 fondamentale comprendere i requisiti tecnici e seguire un processo di installazione strutturato.<\/p>\n<h3>Requisiti di sistema<\/h3>\n<p>Innanzitutto, i requisiti minimi per l&#8217;esecuzione di Deep Seek IA includono:<\/p>\n<ul>\n<li>RAM: 48GB minimo<\/li>\n<li>Storage: 250GB disponibili<\/li>\n<li>Python 3.8 o superiore<\/li>\n<li>Sistema operativo supportato (Linux, Windows o macOS)<\/li>\n<li>GPU compatibile con CUDA (consigliata)<\/li>\n<\/ul>\n<p>Inoltre, i requisiti della GPU variano a seconda del modello specifico. Per il modello base dei parametri 671B sono necessari 80 GB*8 di GPU. Inoltre, le versioni pi\u00f9 leggere come DeepSeek-R1-Distill-Qwen-1.5B possono funzionare con soli 3,5GB di VRAM.<\/p>\n<h3>Processo di installazione<\/h3>\n<p>Il processo di installazione varia a seconda del metodo scelto. In primo luogo, utilizzando vLLM, i passaggi essenziali comprendono:<\/p>\n<ol>\n<li>Installa le dipendenze necessarie di Python<\/li>\n<li>Impostazione delle variabili d&#8217;ambiente<\/li>\n<li>Scarica il modello dal repository ufficiale<\/li>\n<li>Avviare il server vLLM con i parametri appropriati<\/li>\n<\/ol>\n<p>Inoltre, il sistema supporta diversi framework di distribuzione, tra cui SGLang, LMDeploy e TensorRT-LLM, ciascuno ottimizzato per diversi casi d&#8217;uso.<\/p>\n<h3>Ottimizzazione delle prestazioni<\/h3>\n<p>L&#8217;ottimizzazione delle prestazioni \u00e8 ottenuta attraverso varie tecniche. In particolare, il sistema implementa:<\/p>\n<ol>\n<li>Caching dei messaggi frequenti<\/li>\n<li>Gestione corretta degli errori<\/li>\n<li>Adeguamento delle dimensioni dei lotti<\/li>\n<li>Monitoraggio delle impostazioni della temperatura<\/li>\n<\/ol>\n<p>D&#8217;altra parte, per modelli pi\u00f9 grandi, si consiglia di implementare tecniche di parallelismo e distribuzione. Il sistema consente la parallelizzazione di tensori e pipeline, migliorando notevolmente la scalabilit\u00e0. L&#8217;implementazione di formati a precisione ridotta, come FP16 o INT8, pu\u00f2 ridurre notevolmente il consumo di VRAM senza incidere in modo significativo sulle prestazioni. Inoltre, le GPU con Tensor Cores sono particolarmente efficaci nelle operazioni a precisione mista. Per garantire prestazioni ottimali, il sistema incorpora tecniche avanzate di elaborazione in tempo reale. L&#8217;architettura DualPipe rivoluziona il parallelismo della pipeline sovrapponendo le fasi di calcolo e di comunicazione, riducendo al minimo le bolle della pipeline e garantendo un overhead di comunicazione prossimo allo zero.<\/p>\n<h2>Conclusione<\/h2>\n<p>Deep Seek AI rappresenta una svolta significativa nel campo dell&#8217;intelligenza artificiale, dimostrando che l&#8217;eccellenza tecnica non richiede budget astronomici. La sua architettura MoE raggiunge risultati eccezionali con un investimento notevolmente inferiore rispetto ai suoi concorrenti. I risultati parlano da soli: una <a href=\"https:\/\/www.androidauthority.com\/deepseek-vs-chatgpt-3520224\/\" target=\"_blank\" rel=\"nofollow noopener\">performance del 79,8%<\/a> nei test AIME 2024 e la capacit\u00e0 di gestire contesti fino a 128.000 token dimostrano il suo potenziale tecnico. Queste caratteristiche posizionano senza dubbio il modello come un&#8217;alternativa efficiente per le aziende e gli sviluppatori. La natura open source del progetto garantisce continui miglioramenti grazie ai contributi della comunit\u00e0 globale. Inoltre, la sua flessibilit\u00e0 consente adattamenti specifici in base alle esigenze di ogni implementazione, dallo sviluppo di software all&#8217;analisi di dati complessi. Inoltre, le opzioni di implementazione e ottimizzazione offrono un equilibrio tra prestazioni e requisiti di risorse. Questa versatilit\u00e0 facilita l&#8217;adozione su diverse scale, dai singoli progetti alle implementazioni aziendali. Deep Seek AI dimostra che il futuro dell&#8217;intelligenza artificiale risiede in soluzioni efficienti, accessibili e adattabili. La sua combinazione di prestazioni tecniche superiori ed efficienza economica stabilisce un nuovo standard nello sviluppo di modelli di intelligenza artificiale.<\/p>\n<h2>FAQs<\/h2>\n<p><strong>D1. Cosa rende l&#8217;intelligenza artificiale di Deep Seek unica rispetto ad altri modelli di intelligenza artificiale? <\/strong><br \/>\nDeep Seek AI si distingue per l&#8217;efficienza dei costi e per le prestazioni superiori nei test tecnici, in particolare nella programmazione e nel ragionamento matematico. Inoltre, \u00e8 in grado di gestire contesti pi\u00f9 ampi e di caricare pi\u00f9 file contemporaneamente.<\/p>\n<p><strong>D2. Quali sono le principali capacit\u00e0 tecniche di Deep Seek AI? <\/strong><br \/>\nDeep Seek AI eccelle nel ragionamento complesso, raggiungendo un&#8217;elevata precisione nelle prove matematiche avanzate. Eccelle anche nell&#8217;elaborazione del linguaggio naturale, nella gestione di grandi contesti e nell&#8217;efficienza computazionale grazie alla sua architettura MoE.<\/p>\n<p><strong>D3. Come sono le prestazioni di Deep Seek AI rispetto ad altri modelli leader? <\/strong><br \/>\nDeep Seek AI ha dimostrato prestazioni superiori in diversi test, tra cui il 79,8% di accuratezza in AIME 2024 e il 97,3% di accuratezza in MATH-500. Ha inoltre raggiunto il 96,3\u00b0 percentile nei test di programmazione di Codeforces, superando molti modelli concorrenti.<\/p>\n<p><strong>D4. Quali sono i vantaggi dell&#8217;open source di Deep Seek AI? <\/strong><br \/>\nEssendo open source, Deep Seek AI offre maggiore trasparenza, flessibilit\u00e0 negli adattamenti, costi di sviluppo ridotti e la possibilit\u00e0 di ricevere contributi dalla comunit\u00e0 globale. Ci\u00f2 consente un&#8217;evoluzione costante e miglioramenti continui del modello.<\/p>\n<p><strong>D5. Quali sono i requisiti di sistema necessari per implementare Deep Seek AI? <\/strong><br \/>\nI requisiti minimi includono 48 GB di RAM, 250 GB di memoria disponibile, Python 3.8 o superiore e un sistema operativo compatibile. Per il modello completo sono consigliate le GPU compatibili con CUDA, anche se sono disponibili versioni pi\u00f9 leggere con requisiti di VRAM inferiori.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Sapevi che Deep Seek AI \u00e8 riuscita a superare altri modelli di AI con un investimento di soli 5,57 milioni di dollari, rispetto ai 600 milioni di dollari costati per addestrare altri modelli leader? Questa nuova tecnologia sta rivoluzionando il panorama dell&#8217;IA, dimostrando che l&#8217;innovazione non richiede sempre budget astronomici. L&#8217;IA Deep Seek non si &#8230; <a title=\"Deep Seek AI: il nuovo motore di intelligenza artificiale batte ChatGPT nei test tecnici\" class=\"read-more\" href=\"https:\/\/www.verificaremails.com\/it\/deep-seek\/\" aria-label=\"Per saperne di pi\u00f9 su Deep Seek AI: il nuovo motore di intelligenza artificiale batte ChatGPT nei test tecnici\">Per saperne di pi\u00f9<\/a><\/p>\n","protected":false},"author":3,"featured_media":13370,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[1325],"tags":[],"class_list":["post-13378","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ia-it"],"acf":[],"_links":{"self":[{"href":"https:\/\/www.verificaremails.com\/it\/wp-json\/wp\/v2\/posts\/13378","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.verificaremails.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.verificaremails.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.verificaremails.com\/it\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/www.verificaremails.com\/it\/wp-json\/wp\/v2\/comments?post=13378"}],"version-history":[{"count":0,"href":"https:\/\/www.verificaremails.com\/it\/wp-json\/wp\/v2\/posts\/13378\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.verificaremails.com\/it\/wp-json\/wp\/v2\/media\/13370"}],"wp:attachment":[{"href":"https:\/\/www.verificaremails.com\/it\/wp-json\/wp\/v2\/media?parent=13378"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.verificaremails.com\/it\/wp-json\/wp\/v2\/categories?post=13378"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.verificaremails.com\/it\/wp-json\/wp\/v2\/tags?post=13378"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}