{"id":128397,"date":"2026-04-24T18:20:59","date_gmt":"2026-04-24T18:20:59","guid":{"rendered":"https:\/\/enfoquenoticioso.com\/?p=128397"},"modified":"2026-04-24T18:20:59","modified_gmt":"2026-04-24T18:20:59","slug":"el-nuevo-deepseek-v4-es-mas-eficiente-que-chatgpt-y-programa-como-una-bestia","status":"publish","type":"post","link":"https:\/\/enfoquenoticioso.com\/?p=128397","title":{"rendered":"El nuevo DeepSeek V4 es m\u00e1s eficiente que ChatGPT y programa como una bestia"},"content":{"rendered":"<figure><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"680\" src=\"https:\/\/i0.wp.com\/imgs.hipertextual.com\/wp-content\/uploads\/2025\/01\/DeepSeek-1.jpg?fit=1024%2C680&amp;quality=70&amp;strip=all&amp;ssl=1\" class=\"attachment-rss-image-size size-rss-image-size wp-post-image\" alt=\"DeepSeek\" \/><\/figure>\n<p>A m\u00e1s de un a\u00f1o de tomar por sorpresa a ChatGPT y Gemini, <strong>DeepSeek est\u00e1 de regreso con un nuevo modelo de IA<\/strong>. La empresa china present\u00f3 la familia DeepSeek-V4, conformada por dos modelos que se enfocan en la eficiencia en contextos largos. A diferencia de 2025, DeepSeek ya no solo compite con OpenAI, Anthropic o Google, sino tambi\u00e9n con otras IA igual de poderosas como <a href=\"https:\/\/hipertextual.com\/inteligencia-artificial\/kimi-k2-6-modelo-codigo-abierto-benchmarks-gpt-claude-gemini\/\" target=\"_blank\" rel=\"noopener\">la nueva Kimi K 2.6<\/a>.<\/p>\n<p>La compa\u00f1\u00eda <a href=\"https:\/\/huggingface.co\/deepseek-ai\/DeepSeek-V4-Pro\/blob\/main\/DeepSeek_V4.pdf\" target=\"_blank\" rel=\"noopener\">public\u00f3 un documento en <em>Hugging Face<\/em><\/a> en el que detalla los nuevos modelos y sus capacidades. La familia DeepSeek-V4 est\u00e1 conformada por dos modelos con arquitectura Mixture-of-Experts (MoE). El primero, <strong>DeepSeek-V4-Pro, cuenta con 1,6 billones de par\u00e1metros<\/strong> en total, aunque solo activa 49.000 millones por inferencia. El segundo es <strong>DeepSeek-V4-Flash<\/strong>, que trabaja con 284.000 millones de par\u00e1metros y activa 13.000 millones en cada consulta.<\/p>\n<p>Seg\u00fan las pruebas internas, el modo de razonamiento m\u00e1ximo de<strong> DeepSeek-V4-Pro<\/strong> lo coloca como <strong>el mejor modelo de c\u00f3digo abierto en varios frentes<\/strong>. En conocimiento general, supera a sus predecesores por un amplio margen en SimpleQA-Verified. En programaci\u00f3n competitiva, su puntuaci\u00f3n en Codeforces lo coloca en el puesto 23 entre candidatos humanos, y seg\u00fan los propios datos del paper, <strong>es el primer modelo abierto que iguala a GPT-5.4<\/strong> en esa tarea concreta.<\/p>\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" data-recalc-dims=\"1\" width=\"780\" height=\"536\" src=\"https:\/\/i0.wp.com\/imgs.hipertextual.com\/wp-content\/uploads\/2026\/04\/deepseek-v4-1-1500x1031.jpg?resize=780%2C536&#038;quality=70&#038;strip=all&#038;ssl=1\" alt=\"DeepSeek v4\" class=\"wp-image-1883134\" \/><\/figure>\n<p>Frente a titanes como Gemini 3.1-Pro o Claude Opus 4.6, la cosa es distinta. En conocimiento general y razonamiento, <strong>DeepSeek-V4-Pro-Max todav\u00eda est\u00e1 por detr\u00e1s de Gemini-3.1-Pro<\/strong> y GPT-5.4 en algunas pruebas, aunque se adelanta a Gemini-3.1 Pro en la recuperaci\u00f3n de informaci\u00f3n con contextos largos. En tareas de agente, la IA se sit\u00faa al nivel de otros modelos de c\u00f3digo abierto, aunque sin superar a los sistemas cerrados de Google, OpenAI y Anthropic.<\/p>\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" data-recalc-dims=\"1\" width=\"780\" height=\"576\" src=\"https:\/\/i0.wp.com\/imgs.hipertextual.com\/wp-content\/uploads\/2026\/04\/deepseek-v4-2-1500x1108.jpg?resize=780%2C576&#038;quality=70&#038;strip=all&#038;ssl=1\" alt=\"DeepSeek v4\" class=\"wp-image-1883135\" \/><\/figure>\n<div id=\"ez-toc-container\" class=\"ez-toc-v2_0_81 counter-hierarchy ez-toc-counter ez-toc-grey ez-toc-container-direction\">\n<div class=\"ez-toc-title-container\">\n<p class=\"ez-toc-title\" style=\"cursor:inherit\">Tabla de Contenido<\/p>\n<span class=\"ez-toc-title-toggle\"><a href=\"#\" class=\"ez-toc-pull-right ez-toc-btn ez-toc-btn-xs ez-toc-btn-default ez-toc-toggle\" aria-label=\"Alternar tabla de contenidos\"><span class=\"ez-toc-js-icon-con\"><span class=\"\"><span class=\"eztoc-hide\" style=\"display:none;\">Toggle<\/span><span class=\"ez-toc-icon-toggle-span\"><svg style=\"fill: #999;color:#999\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" class=\"list-377408\" width=\"20px\" height=\"20px\" viewBox=\"0 0 24 24\" fill=\"none\"><path d=\"M6 6H4v2h2V6zm14 0H8v2h12V6zM4 11h2v2H4v-2zm16 0H8v2h12v-2zM4 16h2v2H4v-2zm16 0H8v2h12v-2z\" fill=\"currentColor\"><\/path><\/svg><svg style=\"fill: #999;color:#999\" class=\"arrow-unsorted-368013\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"10px\" height=\"10px\" viewBox=\"0 0 24 24\" version=\"1.2\" baseProfile=\"tiny\"><path d=\"M18.2 9.3l-6.2-6.3-6.2 6.3c-.2.2-.3.4-.3.7s.1.5.3.7c.2.2.4.3.7.3h11c.3 0 .5-.1.7-.3.2-.2.3-.5.3-.7s-.1-.5-.3-.7zM5.8 14.7l6.2 6.3 6.2-6.3c.2-.2.3-.5.3-.7s-.1-.5-.3-.7c-.2-.2-.4-.3-.7-.3h-11c-.3 0-.5.1-.7.3-.2.2-.3.5-.3.7s.1.5.3.7z\"\/><\/svg><\/span><\/span><\/span><\/a><\/span><\/div>\n<nav><ul class='ez-toc-list ez-toc-list-level-1 ' ><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-1\" href=\"https:\/\/enfoquenoticioso.com\/?p=128397\/#Lo_que_hace_diferente_a_DeepSeek_V4_de_ChatGPT_y_Gemini\" >Lo que hace diferente a DeepSeek V4 de ChatGPT y Gemini<\/a><\/li><\/ul><\/nav><\/div>\n<h2 class=\"wp-block-heading\" id=\"h-lo-que-hace-diferente-a-deepseek-v4-de-chatgpt-y-gemini\"><span class=\"ez-toc-section\" id=\"Lo_que_hace_diferente_a_DeepSeek_V4_de_ChatGPT_y_Gemini\"><\/span>Lo que hace diferente a DeepSeek V4 de ChatGPT y Gemini<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p>Una de las caracter\u00edsticas por las que DeepSeek se convirti\u00f3 en un fen\u00f3meno viral tiene que ver con su tecnolog\u00eda. Las empresas de IA y la misma NVIDIA no entend\u00edan c\u00f3mo un modelo de ese calibre no requer\u00eda tanto poder de c\u00f3mputo. La compa\u00f1\u00eda china <strong>mantiene la arquitectura MoE<\/strong>, aunque la ha mejorado con nuevas funciones que manejan de una forma distinta la atenci\u00f3n.<\/p>\n<p>Los transformers tradicionales tienen un coste computacional que crece con la longitud del contexto, lo que hace que procesar textos muy largos consuma recursos de c\u00f3mputo desproporcionados. DeepSeek-V4-Pro <strong>necesita solo el 27% de las operaciones de c\u00f3mputo que requer\u00eda DeepSeek-V3.2<\/strong>, y ocupa apenas el 10% del cach\u00e9 KV.<\/p>\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" data-recalc-dims=\"1\" loading=\"lazy\" width=\"780\" height=\"293\" src=\"https:\/\/i0.wp.com\/imgs.hipertextual.com\/wp-content\/uploads\/2026\/04\/deepseek-v4-3.jpg?resize=780%2C293&#038;quality=70&#038;strip=all&#038;ssl=1\" alt=\"DeepSeek v4\" class=\"wp-image-1883136\" \/><\/figure>\n<p>Esto es posible gracias a un mecanismo h\u00edbrido que combina dos t\u00e9cnicas: atenci\u00f3n dispersa comprimida y atenci\u00f3n altamente comprimida. La primera comprime los bloques de clave-valor y luego aplica atenci\u00f3n dispersa para seleccionar solo las entradas m\u00e1s relevantes. La segunda lleva esa compresi\u00f3n m\u00e1s lejos, reduciendo el cach\u00e9 KV de forma m\u00e1s agresiva.<\/p>\n<p>\u00abEl modelo de DeepSeek es altamente eficiente, por lo que la demanda de inferencia est\u00e1 aumentando r\u00e1pidamente\u00bb, dijo Dickie Wong, director ejecutivo de investigaci\u00f3n en Usmart Securities a <em><a href=\"https:\/\/www.scmp.com\/business\/china-business\/article\/3351328\/investors-rotate-chinas-chipmakers-deepseek-intensifies-ai-competition\" target=\"_blank\" rel=\"noopener\">South China Morning Post<\/a><\/em>. \u00abEso es apoyar acciones de chips y hardware, porque las empresas a\u00fan necesitan invertir en GPUs o en chips Ascend de Huawei para ejecutar estos modelos a gran escala\u00bb.<\/p>\n<p>El nuevo modelo <strong>mantiene el esquema de c\u00f3digo abierto<\/strong>, permitiendo descargar los pesos desde <em><a href=\"https:\/\/huggingface.co\/deepseek-ai\/DeepSeek-V4-Pro\" target=\"_blank\" rel=\"noopener\">Hugging Face<\/a><\/em>. Comparado con la versi\u00f3n anterior, DeepSeek -V4 Pro tiene capacidades ag\u00e9nticas mejoradas y un conocimiento profundo del mundo que solo supera Gemini -3.1 Pro. La versi\u00f3n V4 Flash tiene un rendimiento comparable a su hermano mayor en razonamiento y tareas sencillas de agente, aunque responde m\u00e1s r\u00e1pido.<\/p>\n<p>Aquellos interesados en probarlo <a href=\"https:\/\/chat.deepseek.com\/\" target=\"_blank\" rel=\"noopener\">pueden hacerlo desde la web<\/a> o las apps para iOS y Android.<\/p>\n<p>Seguir leyendo: <a href=\"https:\/\/hipertextual.com\/inteligencia-artificial\/deepseek-v4-modelo-ia-contexto-largo\/\" target=\"_blank\" rel=\"noopener\">El nuevo DeepSeek V4 es m\u00e1s eficiente que ChatGPT y programa como una bestia<\/a><\/p>\n<p><a href=\"https:\/\/hipertextual.com\/inteligencia-artificial\/deepseek-v4-modelo-ia-contexto-largo\/\" class=\" target=\" title=\"El nuevo DeepSeek V4 es m\u00e1s eficiente que ChatGPT y programa como una bestia\" target=\"_blank\" rel=\"noopener\">Ver fuente<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>A m\u00e1s de un a\u00f1o de tomar por sorpresa a ChatGPT y Gemini, DeepSeek est\u00e1 de regreso con un nuevo modelo de IA. La empresa china present\u00f3 la familia DeepSeek-V4, conformada por dos modelos que se enfocan en la eficiencia en contextos largos. A diferencia de 2025, DeepSeek ya no solo compite con OpenAI, Anthropic [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":128398,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[9],"tags":[],"class_list":["post-128397","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-tecnologia"],"_links":{"self":[{"href":"https:\/\/enfoquenoticioso.com\/index.php?rest_route=\/wp\/v2\/posts\/128397","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/enfoquenoticioso.com\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/enfoquenoticioso.com\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/enfoquenoticioso.com\/index.php?rest_route=\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/enfoquenoticioso.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=128397"}],"version-history":[{"count":0,"href":"https:\/\/enfoquenoticioso.com\/index.php?rest_route=\/wp\/v2\/posts\/128397\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/enfoquenoticioso.com\/index.php?rest_route=\/wp\/v2\/media\/128398"}],"wp:attachment":[{"href":"https:\/\/enfoquenoticioso.com\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=128397"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/enfoquenoticioso.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=128397"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/enfoquenoticioso.com\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=128397"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}