DeepSeek新模型被硅谷夸疯了!单GPU能跑,“谷歌核心机密被开源”
DeepSeek新模型被硅谷夸疯了!单GPU能跑,“谷歌核心机密被开源”
关于含笑入地网
ENGLISH
English
Español
Français
عربى
Русский язык
日本語
한국어
Deutsch
Português
新华报刊
新华每日电讯
经济参考
瞭望
半月谈
中证报
上证报
中国记者
中国名牌
中国传媒科技
环球
瞭望东方周刊
参考消息
新华出版社
财经国家周刊
地方频道
百色
大同
铁岭
河南
淮南
黑龙江
黑河
烟台
荷泽
钦州
宜春
呼伦贝尔
扬州
鹤岗
邵阳
松原
贺州
杭州
湖南
聊城
莱芜
西宁
抚州
湘潭
盐城
随州
巴中
江西
乌海
青岛
承建网站
中国政府网
中国文明网
国家国际发展合作署
中国雄安官网
中国互联网联合辟谣平台
中国记协网
国家公祭网
科普中国
国家能源局网站
国家信访局网站
中国禁毒网
网站无障碍
客户端
手机版
站内搜索
网络举报专区
新华通讯社主办
公司官网
股票代码:
603888
学习进行时
高层
时政
人事
国际
财经
网评
港澳
台湾
思客智库
全球连线
教育
科技
科普
体育
文化
书画
健康
军事
访谈
视频
图片
政务
中央文件
金融
汽车
食品
人居生活
信息化
数字经济
学术中国
乡村振兴
溯源中国
城市
旅游
能源
会展
彩票
娱乐
时尚
悦读
公益
一带一路
亚太网
上市公司
文化产业
含笑入地网
>
> 正文
2026-04-18 05:52:05
来源:含笑入地网
DeepSeek新模型被硅谷夸疯了!单GPU能跑,“谷歌核心机密被开源”
字体:
小
中
大
分享到:
DeepSeek新模型被硅谷夸疯了!单GPU能跑,“谷歌核心机密被开源”
2026-04-18 05:52:05
来源:含笑入地网
\u003cdiv class=\"rich_media_content\"\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 0px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003eDeepSeek最新开源的模型,已经被硅谷夸疯了!\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e因为实在太\u003c!--VERTICAL_CARD_BEGIN_0--\u003eDeepSeek\u003c!--VERTICAL_CARD_END_0--\u003e了。3B规模、指数级效能变革、大道至简,甚至被认为把谷歌Gemini严防死守的商业机密开源了。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e唯一的问题可能就是被\u003c/span\u003e\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e“OCR”\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e命名耽误了。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e是的,DeepSeek刚刚开源即火爆的模型就叫:\u003c/span\u003e\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003eDeepSeek-OCR\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"text-align: center\" data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_0--\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e这个模型瞄准的是大模型处理长文本时的算力爆炸难题……虽然模型参数很小,但四两拨千斤,其背后所代表的\u003c/span\u003e\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e“用视觉方式压缩一切”\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e的思想,大道至简,既是人类智能的现实,也不断出现在诸如《三体》的科幻作品中。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e简单来说,由于一张图能包含大量文字(用的token还更少),所以他们想到并验证了“将视觉作为文本压缩媒介”这一方法——就好比优秀的人看书都是扫一眼就知道内容,不必一字一句读完才理解内容。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e一图胜千言。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e而且DeepSeek研究后发现,当\u003c/span\u003e\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e压缩率小于10倍\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e时(即文本token数是视觉token数的10倍以内),模型OCR解码\u003c/span\u003e\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e准确率高达97%\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e;即使压缩率高达\u003c/span\u003e\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e20倍\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e,准确率依旧能保持在\u003c/span\u003e\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e60%\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e左右,效果相当能打。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c!--MID_AD_0--\u003e\u003c!--EOP_0--\u003e\u003c/p\u003e\u003c!--PARAGRAPH_0--\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e更主要的是,DeepSeek再次展现了高效能风格,他们的方法之下,生成训练数据——\u003c/span\u003e\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e仅凭一块A100-40G GPU,每天就能生成超过20万页的优质LLM/VLM训练数据\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e所以这个研究一经公布,已经快速在GitHub斩获了3.3K star。HuggingFace则已经热榜第二……X上热议,好评声一片。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e刚“尖锐”评价过AI现状的卡帕西说:我很喜欢……特别是图像比文字更适合LLM输入,妙啊。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e还有人认为这是\u003c/span\u003e\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e“AI的JPEG时刻”\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e,AI记忆架构打开了新路径。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"text-align: center\" data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_1--\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e还有爆料猜测,谷歌Gemini的核心商业机密被开源了:\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"text-align: center\" data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_2--\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e当然,如此火爆的工作还带来了更多思考——不少人看过论文后,认为这种统一视觉与语言的方法,或许是通往\u003c!--VERTICAL_CARD_BEGIN_1--\u003eAGI\u003c!--VERTICAL_CARD_END_1--\u003e的大门之一。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e以及DeepSeek还在论文中,谈到了AI的记忆和“遗忘”机制。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e所以,DeepSeek的新模型,论文究竟是怎么说的?\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003ch1 style=\"line-height: 1.579; margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; text-align: justify\"\u003e\u003c!--HPOS_0--\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003eDeepSeek新研究:两大核心组件实现“以小博大”\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003c/h1\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e概括而言,DeepSeek这次提出了一种名为“上下文光学压缩”(Contexts Optical Compression)的思路。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e其灵感来自这样一个巧妙的逆向思维:\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e既然一张图片能“装下”成千上万个字,那我们能不能把文字信息压缩到图片里,让模型通过“看图”来理解内容呢?\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"text-align: center\" data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_3--\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e本质上来说,这就是一种视觉-文本压缩范式,通过用少量的视觉token来表示原本需要大量文本token的内容,以此降低大模型的计算开销。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e为验证这一想法,他们构建了3B大小的DeepSeek-OCR模型,结果发现它在主流文档解析基准OmniDocBench上取得了新SOTA。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e下图显示,DeepSeek-OCR(红色圆点)在“平均每张图的视觉token数”(横轴)上位于最右侧,这说明它使用的token数量最少;而在“整体性能”(纵轴,越低越好)上,它却达到了SOTA水平,而且大多还是“以小博大”。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"text-align: center\" data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_4--\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e更具体的对比如下:\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cul style=\"--ul-list-style-type: \u0026#39;\\25EF\u0026#39;; padding-left: 0px\" class=\"nonUnicode-list-style-type\" data-list-style-type=\"circle\" classname=\"ex-list\" data-ex-list=\"ul\"\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e仅用100个视觉token\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e,DeepSeek-OCR就超过了每页使用256个token的GOT-OCR2.0;\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e当使用400个视觉token时\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e(其中有效token为285),DeepSeek-OCR就能和之前的SOTA模型表现相当;\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e使用不到800个视觉token\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e,DeepSeek-OCR便大大超过了平均每页近7000个视觉token的MinerU2.0。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003c/ul\u003e\u003cp style=\"text-align: center\" data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_5--\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e这一切背后都离不开DeepSeek-OCR架构的两大核心组件:\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cul style=\"--ul-list-style-type: \u0026#39;\\25EF\u0026#39;; padding-left: 0px\" class=\"nonUnicode-list-style-type\" data-list-style-type=\"circle\" classname=\"ex-list\" data-ex-list=\"ul\"\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e编码器DeepEncoder:负责把图片转成高度压缩的视觉token;\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e解码器DeepSeek3B-MoE-A570M:负责从压缩的视觉token里重建文字。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003c/ul\u003e\u003cp style=\"text-align: center\" data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_6--\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e这里重点说一下整个系统的创新关键——\u003c/span\u003e\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e编码器DeepEncoder\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e其核心使命为,在处理高分辨率图像时,能够产出数量极少但信息密度极高的视觉token。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e为此它采用了“先局部处理,再压缩,后全局理解”的串行设计:\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cul style=\"--ul-list-style-type: \u0026#39;\\25EF\u0026#39;; padding-left: 0px\" class=\"nonUnicode-list-style-type\" data-list-style-type=\"circle\" classname=\"ex-list\" data-ex-list=\"ul\"\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e局部处理\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e:利用仅使用“窗口注意力”机制的SAM-base模型(8000万参数),第一步先在高分辨率图像上进行细粒度的局部特征提取。尽管此时生成的视觉token数量庞大,但由于窗口注意力的高效性,内存开销仍在可控范围内;\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e再压缩\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e:然后在中间部分加一个16倍卷积压缩器,从而在特征进入全局注意力模块前大幅砍掉token数量,比如一张1024x1024的图片,经过第一阶段会产生4096个token,但经过压缩机后,只剩下256个token进入第二阶段;\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e后全局理解\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e:最后利用使用“全局注意力”机制的CLIP-large模型(3亿参数),更深入地理解这些经过浓缩后的少量token,此时由于输入的token数量已经大幅减少,所以这里的计算开销也变得可以接受。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003c!--MID_AD_1--\u003e\u003c!--EOP_1--\u003e\u003c/ul\u003e\u003c!--PARAGRAPH_1--\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e此外值得一提的是,为了灵活应对不同的压缩比需求和实际应用场景,DeepEncoder被训练成支持从“Tiny”(512x512, 64token)到“Gundam”(动态分块,近800token)等多种输入模式。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c!--MID_AD_2--\u003e\u003c!--EOP_2--\u003e\u003c/p\u003e\u003c!--PARAGRAPH_2--\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e就是说,\u003c/span\u003e\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e同一个模型可以根据任务需要,随机应变地调整其“压缩强度”\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"text-align: center\" data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_7--\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e总之,基于以上原理和组件搭配,目前DeepSeek-OCR除了具备常规识别能力,还支持对金融报表、化学分子式、数学几何图、100多种语言等更为复杂的图像进行深度解析。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"text-align: center\" data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_8--\u003e\u003c/p\u003e\u003ch1 style=\"line-height: 1.579; margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; text-align: justify\"\u003e\u003c!--HPOS_1--\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e三位作者亮相\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003c/h1\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e如此被夸赞的新研究,来自三位研究人员,依然很DeepSeek——几人都相对低调,网上公开资料很少。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"text-align: center\" data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_9--\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003eHaoran Wei\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e,曾就职于阶跃星辰,当时还主导开发了意在实现“第二代OCR”的GOT-OCR2.0系统。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e(2024年9月发表的这篇论文显示,身为论文一作的Haoran Wei所处单位为阶跃。)\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e此次DeepSeek-OCR的工作也可谓延续了GOT-OCR2.0之前的技术路径,即致力于通过端到端模型解决复杂文档解析问题。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"text-align: center\" data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_10--\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003eYaofeng Sun\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e,从去年开始就陆续参与DeepSeek多款模型研发,包括R1、V3中都有他的身影。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"text-align: center\" data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_11--\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003eYukun Li(李宇琨)\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e,谷歌学术论文近万引研究员,也持续参与了包括DeepSeek V2/V3在内的多款模型研发。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"text-align: center\" data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_12--\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e有意思的是,这三人在提出DeepSeek-OCR之后,还贡献了一个脑洞大开的想法——\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e用光学压缩模拟人类的遗忘机制\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"text-align: center\" data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_13--\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e只需将上下文光学压缩与人类记忆的衰退过程进行类比,我们就能发现二者高度相似:\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cul style=\"--ul-list-style-type: \u0026#39;\\25EF\u0026#39;; padding-left: 0px\" class=\"nonUnicode-list-style-type\" data-list-style-type=\"circle\" classname=\"ex-list\" data-ex-list=\"ul\"\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e近期记忆:就像近处的物体,清晰可见。所以可以将其渲染成高分辨率图像,用较多的视觉token来保留高保真信息。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e远期记忆 :就像远处的物体,逐渐模糊。所以可以将其渐进式地缩放成更小、更模糊的图像,用更少的视觉token来表示,从而实现信息的自然遗忘和压缩。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003c!--MID_AD_3--\u003e\u003c!--EOP_3--\u003e\u003c/ul\u003e\u003c!--PARAGRAPH_3--\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e这样一来,理论上模型就可以在处理超长对话或文档时,动态地为不同时期的上下文分配不同数量的计算资源,\u003c/span\u003e\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e从而可能构建出一种无限长上下文的架构\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e团队表示,虽然这还是个早期研究方向,但不失为模型处理超长上下文的一种新思路。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e这个思路确实也更像人类的智能。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e之前AI的上下文研究,对于短期中期远期的都是一视同仁,机器味儿十足,但计算资源和响应问题也会相应暴涨……\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e而现在,DeepSeek提出新思路,是时候让AI记忆更像人了。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e传送门:\u003cbr/\u003eHugging Face:\u003cbr/\u003ehttps://huggingface.co/deepseek-ai/DeepSeek-OCR\u003cbr/\u003eGitHub:\u003cbr/\u003ehttps://github.com/deepseek-ai/DeepSeek-OCR\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c!--MID_AD_4--\u003e\u003c!--EOP_4--\u003e\u003c/p\u003e\u003c!--PARAGRAPH_4--\u003e\u003cdiv powered-by=\"qqnews_ex-editor\"\u003e\u003c/div\u003e\u003cstyle\u003e.rich_media_content{--news-tabel-th-night-color: #444444;--news-font-day-color: #333;--news-font-night-color: #d9d9d9;--news-bottom-distance: 22px}.rich_media_content p:not([data-exeditor-arbitrary-box=image-box]){letter-spacing:.5px;line-height:30px;margin-bottom:var(--news-bottom-distance);word-wrap:break-word}.rich_media_content{color:var(--news-font-day-color);font-size:18px}@media(prefers-color-scheme:dark){body:not([data-weui-theme=light]):not([dark-mode-disable=true]) .rich_media_content p:not([data-exeditor-arbitrary-box=image-box]){letter-spacing:.5px;line-height:30px;margin-bottom:var(--news-bottom-distance);word-wrap:break-word}body:not([data-weui-theme=light]):not([dark-mode-disable=true]) .rich_media_content{color:var(--news-font-night-color)}}.data_color_scheme_dark .rich_media_content p:not([data-exeditor-arbitrary-box=image-box]){letter-spacing:.5px;line-height:30px;margin-bottom:var(--news-bottom-distance);word-wrap:break-word}.data_color_scheme_dark .rich_media_content{color:var(--news-font-night-color)}.data_color_scheme_dark .rich_media_content{font-size:18px}.rich_media_content p[data-exeditor-arbitrary-box=image-box]{margin-bottom:11px}.rich_media_content\u003ediv:not(.qnt-video),.rich_media_content\u003esection{margin-bottom:var(--news-bottom-distance)}.rich_media_content hr{margin-bottom:var(--news-bottom-distance)}.rich_media_content .link_list{margin:0;margin-top:20px;min-height:0!important}.rich_media_content blockquote{background:#f9f9f9;border-left:6px solid #ccc;margin:1.5em 10px;padding:.5em 10px}.rich_media_content blockquote p{margin-bottom:0!important}.data_color_scheme_dark .rich_media_content blockquote{background:#323232}@media(prefers-color-scheme:dark){body:not([data-weui-theme=light]):not([dark-mode-disable=true]) .rich_media_content blockquote{background:#323232}}.rich_media_content ol[data-ex-list]{--ol-start: 1;--ol-list-style-type: decimal;list-style-type:none;counter-reset:olCounter calc(var(--ol-start,1) - 1);position:relative}.rich_media_content ol[data-ex-list]\u003eli\u003e:first-child::before{content:counter(olCounter,var(--ol-list-style-type)) '. ';counter-increment:olCounter;font-variant-numeric:tabular-nums;display:inline-block}.rich_media_content ul[data-ex-list]{--ul-list-style-type: circle;list-style-type:none;position:relative}.rich_media_content ul[data-ex-list].nonUnicode-list-style-type\u003eli\u003e:first-child::before{content:var(--ul-list-style-type) ' ';font-variant-numeric:tabular-nums;display:inline-block;transform:scale(0.5)}.rich_media_content ul[data-ex-list].unicode-list-style-type\u003eli\u003e:first-child::before{content:var(--ul-list-style-type) ' ';font-variant-numeric:tabular-nums;display:inline-block;transform:scale(0.8)}.rich_media_content ol:not([data-ex-list]){padding-left:revert}.rich_media_content ul:not([data-ex-list]){padding-left:revert}.rich_media_content table{display:table;border-collapse:collapse;margin-bottom:var(--news-bottom-distance)}.rich_media_content table th,.rich_media_content table td{word-wrap:break-word;border:1px solid #ddd;white-space:nowrap;padding:2px 5px}.rich_media_content table th{font-weight:700;background-color:#f0f0f0;text-align:left}.rich_media_content table p{margin-bottom:0!important}.data_color_scheme_dark .rich_media_content table th{background:var(--news-tabel-th-night-color)}@media(prefers-color-scheme:dark){body:not([data-weui-theme=light]):not([dark-mode-disable=true]) .rich_media_content table th{background:var(--news-tabel-th-night-color)}}.rich_media_content .qqnews_image_desc,.rich_media_content p[type=om-image-desc]{line-height:20px!important;text-align:center!important;font-size:14px!important;color:#666!important}.rich_media_content div[data-exeditor-arbitrary-box=wrap]:not([data-exeditor-arbitrary-box-special-style]){max-width:100%}.rich_media_content .qqnews-content{--wmfont: 0;--wmcolor: transparent;font-size:var(--wmfont);color:var(--wmcolor);line-height:var(--wmfont)!important;margin-bottom:var(--wmfont)!important}.rich_media_content .qqnews_sign_emphasis{background:#f7f7f7}.rich_media_content .qqnews_sign_emphasis ol{word-wrap:break-word;border:none;color:#5c5c5c;line-height:28px;list-style:none;margin:14px 0 6px;padding:16px 15px 4px}.rich_media_content .qqnews_sign_emphasis p{margin-bottom:12px!important}.rich_media_content .qqnews_sign_emphasis ol\u003eli\u003ep{padding-left:30px}.rich_media_content .qqnews_sign_emphasis ol\u003eli{list-style:none}.rich_media_content .qqnews_sign_emphasis ol\u003eli\u003ep:first-child::before{margin-left:-30px;content:counter(olCounter,decimal) ''!important;counter-increment:olCounter!important;font-variant-numeric:tabular-nums!important;background:#37f;border-radius:2px;color:#fff;font-size:15px;font-style:normal;text-align:center;line-height:18px;width:18px;height:18px;margin-right:12px;position:relative;top:-1px}.data_color_scheme_dark .rich_media_content .qqnews_sign_emphasis{background:#262626}.data_color_scheme_dark .rich_media_content .qqnews_sign_emphasis ol\u003eli\u003ep{color:#a9a9a9}@media(prefers-color-scheme:dark){body:not([data-weui-theme=light]):not([dark-mode-disable=true]) .rich_media_content .qqnews_sign_emphasis{background:#262626}body:not([data-weui-theme=light]):not([dark-mode-disable=true]) .rich_media_content .qqnews_sign_emphasis ol\u003eli\u003ep{color:#a9a9a9}}.rich_media_content h1,.rich_media_content h2,.rich_media_content h3,.rich_media_content h4,.rich_media_content h5,.rich_media_content h6{margin-bottom:var(--news-bottom-distance);font-weight:700}.rich_media_content h1{font-size:20px}.rich_media_content h2,.rich_media_content h3{font-size:19px}.rich_media_content h4,.rich_media_content h5,.rich_media_content h6{font-size:18px}.rich_media_content li:empty{display:none}.rich_media_content ul,.rich_media_content ol{margin-bottom:var(--news-bottom-distance)}.rich_media_content div\u003ep:only-child{margin-bottom:0!important}.rich_media_content .cms-cke-widget-title-wrap p{margin-bottom:0!important}\u003c/style\u003e\u003c/div\u003e
【纠错】
【责任编辑:你是哈密我是瓜瓜瓜】
阅读下一篇:
深度观察
新华全媒头条丨
优化市场生态做强科技金融——做好“开局之年”经济工作④
优化市场生态做强科技金融——做好“开局之年”经济工作④丨
优化市场生态做强科技金融——做好“开局之年”经济工作④
优化市场生态做强科技金融——做好“开局之年”经济工作④丨
优化市场生态做强科技金融——做好“开局之年”经济工作④
优化市场生态做强科技金融——做好“开局之年”经济工作④丨
优化市场生态做强科技金融——做好“开局之年”经济工作④
优化市场生态做强科技金融——做好“开局之年”经济工作④丨
优化市场生态做强科技金融——做好“开局之年”经济工作④
优化市场生态做强科技金融——做好“开局之年”经济工作④丨
优化市场生态做强科技金融——做好“开局之年”经济工作④
优化市场生态做强科技金融——做好“开局之年”经济工作④丨
优化市场生态做强科技金融——做好“开局之年”经济工作④
优化市场生态做强科技金融——做好“开局之年”经济工作④丨
优化市场生态做强科技金融——做好“开局之年”经济工作④
优化市场生态做强科技金融——做好“开局之年”经济工作④丨
优化市场生态做强科技金融——做好“开局之年”经济工作④
优化市场生态做强科技金融——做好“开局之年”经济工作④丨
优化市场生态做强科技金融——做好“开局之年”经济工作④
优化市场生态做强科技金融——做好“开局之年”经济工作④丨
优化市场生态做强科技金融——做好“开局之年”经济工作④
优化市场生态做强科技金融——做好“开局之年”经济工作④丨
优化市场生态做强科技金融——做好“开局之年”经济工作④
优化市场生态做强科技金融——做好“开局之年”经济工作④丨
优化市场生态做强科技金融——做好“开局之年”经济工作④
优化市场生态做强科技金融——做好“开局之年”经济工作④丨
优化市场生态做强科技金融——做好“开局之年”经济工作④
优化市场生态做强科技金融——做好“开局之年”经济工作④丨
优化市场生态做强科技金融——做好“开局之年”经济工作④
优化市场生态做强科技金融——做好“开局之年”经济工作④丨
优化市场生态做强科技金融——做好“开局之年”经济工作④
新华全媒头条丨
优化市场生态做强科技金融——做好“开局之年”经济工作④
新华全媒头条丨
低饱和色搭高腰线绝美!学山口百惠夏日时髦穿搭
新华全媒头条丨
研究人员观察到牛熟练使用工具 共存一万年来首个案例
新华全媒头条丨
优化市场生态做强科技金融——做好“开局之年”经济工作④
新华全媒头条丨
低饱和色搭高腰线绝美!学山口百惠夏日时髦穿搭
新华全媒头条丨
研究人员观察到牛熟练使用工具 共存一万年来首个案例
DeepSeek新模型被硅谷夸疯了!单GPU能跑,“谷歌核心机密被开源”