{label:top}
首页 >> 独料> 正文

MoE 高效训练的 A/B 面:与魔鬼做交易,用「显存」换「性能」

来源:独料发布时间:2025-09-09 17:58:31
浏览:364


MoE 会成为未来大模型训练的新方向吗?

这是人们发现 MoE 架构可以用于大模型训练、推理后,效训性发出的面魔一声疑问。

MoE(Mixture of Experts),交易又称「混合专家」,用显本质是存换刘某网红翻车高清内容一种模块化的稀疏激活。怎么理解?高鬼

当前的大模型主要分为稠密(dense)模型与稀疏(sparse)模型,两者的效训性区别主要在于模型进行计算时,被调用的面魔参数数量,参数全部生效使用的交易是稠密模型,比如 OpenAI 从第一代到第三代即 GPT-1、用显 GPT-2、存换 GPT-3,高鬼以及 Meta 的效训性 Llama 系列都是稠密模型;只使用其中一部分参数的是稀疏模型,比如基于 MoE 架构的面魔模型,而这些被使用的参数称为「激活参数」。

具体从网络结构来看,目前主流的大模型大都是基于 Transformer 架构,由多个 Transformer Block 叠加组成,在每一个 Transformer Block 内部都会包括两层结构,一层是多头自注意力(Multi-Head Self-Attention),另一层是位置前馈神经网络(Position-wise Feed-Forward Network,FFN)。MoE 做法是对 FFN 层进行横向扩展,将其中的参数细化、组织成一个又一个的组,每个组是一个专家(expert)。

基于此,对于特定输入,MoE 只需激活少数 expert,让其参数处于激活状态,从而实现稀疏激活。而具体激活哪些 expert、哪部分参数,MoE 还会引入一个 Router(门控网络或路由),根据特定输入进行动态选择。

去年年底,Mistral AI 开源了基于 MoE 架构的模型 Mixtral 8x7B,性能表现可达到与 GPT-3.5、 Llama2 70B 相媲美的程度,而推理时只消耗了一个 13B 级别的稠密模型计算量——这一度让业内人士对 MoE 架构在大模型研究中的潜力充满了想象。

MoE 高效训练的 A/B 面:与魔鬼做交易,用「显存」换「性能」

居然有这样一个架构,可以让 AI 模型在增大参数规模的同时,计算成本远低于相同参数规模的稠密模型,实现高效训练。这在 Scaling Law 仍被奉为 LLM 第一性原理的陈某深夜录音热搜截图当下,简直是「大力出奇迹」的不二工具。

紧接着,国内外大模型从业者相继推出基于 MoE 架构的大模型:

今年 1 月,MiniMax 发布基于 MoE 架构的大语言模型 abab6;

2月,昆仑万维正式发布新版 MoE 大语言模型「天工 2.0」;

3月,马斯克创办的 xAI 宣布开源基于 MoE 架构的大模型 Grok-1,新晋大模型独角兽阶跃星辰发布 Step-2 万亿参数 MoE 语言大模型预览版,阿里通义千问团队开源首个 MoE 模型——Qwen1.5-MoE-A2.7B;

4月,元象科技发布 XVERSE-MoE-A4.2B 大模型,面壁智能推出 MiniCPM-MoE-8x2B MoE 模型;

5月,DeepSeek AI 开源 MoE 语言模型 DeepSeek-V2,在一些任务表现中成为目前最强的开源 MoE 语言模型……

越来越多的玩家开始选择 MoE。为此,AI 科技评论走访了多位国内 MoE 专业人员。我们发现,MoE 的未来或尚未可知,但在当下,MoE 是大多数企业在忠于 Scaling Law 这一定律下必然要做出的选择。

1.MoE 是算力匮乏的「产物」

MoE 并非新生事物。作为一种统计学架构,MoE 早在 1997 年就被提出,后来,随着机器学习等机器智能工艺的兴起,MoE 的思想也随着深度学习的增长一路演进,在2017年时,就已经有专家学者在 LSTM 模型上运用 MoE 方法并取得了成功。

而意识到 MoE 可以用于大模型的训练,很多人是从去年年底 Mistral AI 开源了首个 MoE 架构模型开始的,但对于很多研究 MoE 的学者来说,Mistral AI 的开源更是 MoE 的一次成功实践,让大家对 MoE 的感知从原先的理论到实际效果的转变。

实际早在去年 6 月份,在一次访谈中,就有人声称 OpenAI 的 GPT-4 是一个 8x220B 的 MoE 模型。只不过彼时大模型在国内才刚刚起步,大家对基础模型的训练工艺不太成熟,对 MoE 感知不够,一阵喧哗之后讨论声渐渐消散,不过也正是这一次让更多业内人士开始意识到 MoE 的价值。

阶跃星辰运算规则专家告诉雷峰网,当初社区传言 OpenAI 的 GPT-4 是 MoE 架构时,他们并不感到意外,甚至能根据经验猜测它的大部分架构细节。

元象XVERSE工艺合伙人、大模型运算规则负责人轩文烽也表示,在更早之前,2021 年初 Google 在 arXiv上 发表了一篇论文《Switch Transformers: Scaling to Trillion Parameter Models with Simple and Efficient Sparsity》后,他们就开始了解到 MoE,同年国内的阿里正在研发 M6 模型,在这方面也有跟进。「而 Mistral AI 的开源,直接让它的实际效果呈现得更明显,之后,去年 12 月元象XVERSE开始策划训练 MoE 大模型。」

诚然,MoE 作为一种模块化的稀疏激活,可以在模型总参数量不变的情况下,大幅降低计算总量,高效计算、降低成本。这是 MoE 最为显著的优势,也是为什么它作为一个并不「新鲜」的工艺又在此时此刻重新焕发活力的原因所在。

现在的大模型越来越大了。Scaling Law 带来的启示是模型越大,性能越强,可是模型迭代离不开高效的算力支持,而算力的不足和匮乏,行业周知。

稀疏化包括 MoE 工艺为这一问题提供了解法——它可以增大模型的参数规模,但是它的计算成本又要远低于相同参数规模的稠密模型。

面壁智能研究员宋晨阳告诉雷峰网,在目前算力,特别是国内算力普遍比较有限的情况下,MoE 架构是一个必然的趋势和选择。

面壁智能与 MoE 渊源颇深。早在 2021 年 6 月,清华大学刘知远教授牵头的「悟道·文源」就发布了千亿 MoE 大模型 CPM-2 ,是国内最早关注到这一问题的 AI 团队之一,而其中的参与成员就包括面壁智能的初始团队。因着这一自带的基因,面壁智能一直在关注和研究 MoE 和稀疏化。

MoE 高效训练的 A/B 面:与魔鬼做交易,用「显存」换「性能」

同样坚信 Scaling Law 的阶跃星辰在完成千亿模型的训练后,开始训练万亿模型。而想把模型参数扩大到万亿,MoE 是在性能、参数量、训练成本、推理成本这些维度权衡下的最佳选择。

具体来看,MoE 模型的优势主要体现为专家化、动态化、稀疏化。

一是具有更强的表现力:MoE 架构融合多个各有所长的专家模型,既有分工,又有合作,能够动态地适应不同输入样本的特点,提高模型的表达能力。

二是训练和推理速度更快:相比于同参数的稠密模型架构,MoE 是稀疏的,训练的时候计算量更小,推理的时候同时激活的参数量更小,因此能够更高效地利用计算资源。

2.路径抉择不一

目前,市场上选择 MoE 架构的大模型厂商越来越多,大家做得也都大同小异,但在架构细节上还有很多值得琢磨的地方,业界也没有达成共识,比如总共需要多少个 expert(2个到128个)、选择激活多少个 expert、需不需要有固定共享 expert、选择 expert 的时候该怎么做均衡等,各家都会不太一样。

一般来说,现在的 MoE 路径选择主要分为两种——基于一个已有模型开始训练,还是从头开始训练。

基于已有模型开始训练,是通过一个众所周知的取巧方案——upcycle(向上复用)进行的。具体来说,是将一个已经训练好的大模型的前馈神经网络权重复制若干份,每一份作为一个 expert,然后组合在一起,这样就可以把一个非 MoE 模型变成一个 MoE 模型,参数量很快就能变得特别大,但算力需求会小几个量级。

宋晨阳告诉雷峰网(公众号:雷峰网),「这种方法的最大优势在于可以节省很多成本,因为初始模型就有很多知识。」但同时,这样也存在很大的弊端,比如基于拷贝复制得到的 MoE 模型,expert 之间会有很多知识重叠,权重、参数的冗余导致对各 expert 的支持是重叠的,如果做得不好,就不能充分发挥 MoE 架构的潜力,是一个很具考验性的路径。

那如果从头开始训练的话,虽然训练起来会更难,但上述问题会有所缓解,且它的自由度更高,避免传统 MoE 架构模型的潜在问题,争取达到 MoE 架构模型的上限。

目前,大多数厂商选择的是基于已有模型进行训练,像是 Mistral AI 的 Mixtral 系列模型、千问的 MoE 模型 Qwen1.5-MoE-A2.7B、面壁智能的 MiniCPM-MoE-8x2B 等。而从论文来看,DeepSeek 选择的是从头开始训练,前段时间 DeepSeek-V2 一经开源发布,引起了非常大的反响。

阶跃星辰的做法是,一方面选择完全从头开始训练,保持万亿参数在整个训练过程中都不变,充分发挥 MoE 架构的潜力,另一方面在前期做好准备工作,从众多方案中选择更为靠谱的架构配置。

除此之外,还有一个大家会有分歧的问题,就是 MoE 架构的 expert 的力度应该是粗还是细?以及应不应该有固定共享 expert?

举例来说,Mistrial AI 的 8x7B 是一个经典的 MoE 架构,有 8 个 expert ,每个 expert 都是完全一样的形状,然后用 router 网络去从 8 个 expert 里面选择 2 个 expert。但是千问和 DeepSeek 采用了不同的做法,特别是 DeepSeek 把 expert 的粒度切得更细,同时还引入共享 expert。

MoE 高效训练的 A/B 面:与魔鬼做交易,用「显存」换「性能」

换句话说,好比原本是从 8 个 expert 中只能选 2 个,那组合数为 C8 2,但是如果把这 8 个 expert 每个再分别切成 8 个,就得到 64 个 expert,然后从 64 个 expert 中去选择 8 个,组合数就达到了 C64 8。这样一来,模型可选择的组合大大增多,模型的表达能力也就会有所增强。

宋晨阳认为,这是 DeepSeek MoE 模型的一大创新之处。

对此,轩文烽也告诉雷峰网,在 expert 的选择上,元象XVERSE 也没有使用传统的 MoE 架构做法——类 Mistral AI 的选择,每个 expert 等同于标准的 FFN——而是用了一些更细颗粒度的方法,将 expert 的设计设置为标准 FFN 的 1/ 4,而之所以做出这个选择,是在训练过程中,根据多次实验预测结果得出的结论,另外他们也在密切关注目前业界的 FFN 的配比方案。

另外,DeepSeek 还引入了共享 expert,前面提到,如果像 Mistral AI 那样从一个已有的稠密模型基于 upcycle,得到的 MoE 模型存在一个问题,即每个 expert 在初始化的时候完全一样,彼此之间不可避免会有很多知识的重叠,最后参数将是冗余的。而 DeepSeek 的策略是把每个 expert 重叠的知识用共享 expert 单独拿出来表示,共享 expert 对于每一个给定的输入 token 不经过 router 网络直接固定激活,然后再对其他剩下不共享的 expert 中,用 router 网络去选择要激活的部分。

基于此,宋晨阳认为,目前市面上的 MoE 模型又分为两个流派,一种就是类似 Mistrial AI的传统 MoE 流派,还另外就是千问和 DeepSeek MoE 这种 expert 切分更细、设置共享 expert 的架构。

至于哪种会成为主流,其实并没有具体的答案,因为一个模型最后表现有多好,架构还真不一定是最关键的事情,作用因素很多,比如信息,包括哪些类型的信息、信息如何清洗、如何配比组织,以及最终训练时,原始信息如何切分成一个又一个的 token,等等。不同的选择都将通往不同的答案。

当前,面壁智能的 MiniCPM-MoE-8x2B 采用的是类似 Mistral AI 的模型架构。考虑到未来面壁智能的最终目标是要将端侧模型做到极致,送到每一部手机、每一个客户手上。所以,当下他们也在讨论,包括做一些实验,来决定设计怎样更适合加速的 MoE 架构,从而做出最终路径选择。

3.MoE「终究是一门妥协的艺术」

当前,随着入局玩家的增多,MoE 似乎正逐渐成为一种行业共识,那么,MoE 会是未来 AI 的方向吗?

对此,众说纷纭,信奉它的人认为,它可以实现同等参数规模下算力的大幅降低,在 Scaling Law 仍未失效的当下,无疑是最优解。

但不看好的也大有人在。

今年 4 月底,Meta 官宣了 Llama 3,总共有三个版本——8B、70B 和 400B+。其中,8B 和 70B 版本已经开源,而 400B+ 版本仍在训练中。CEO 扎克伯格在访谈提到,Llama 3 400B+ 将是一个稠密模型。面对如此大的参数量,仍然选择稠密模型,或许表明,Meta 不相信稀疏化,「拒绝」了 MoE 架构。

其实,即便是那些选择了 MoE 架构的玩家,也不得不承认,虽然有着高效训练、灵活性和可解释性的优点,MoE 的局限性仍然明显,是「一门妥协的艺术」。

宋晨阳表示,MoE 的好处在于算力有限的情况下,可以实现同等参数规模下,计算量的大幅降低。但如果有足够的算力,训练一个 MoE 模型和同等参数量的稠密模型,就性能来说,一定是稠密模型更好。

也就是说,同等参数规模下,稠密模型的表现要优胜于 MoE 模型。这是因为,本质上 FFN 的表达能力是不受限的,但 MoE 模型为了稀疏激活,强行规定只能激活被切细后的一部分 FFN,相当于把模型的整个可表示空间给缩小了。

另外,无论是 MoE 还是整个稀疏化,都有一个「致命」问题,就是目前并没有一个特别有效的方法能够降低它们的存储消耗。比如对于一个 7B 模型来说,可以把它做成稀疏架构,使其计算量小于 7B,但它的内存消耗还是一个 7B 的规模,这会导致在实际将其部署在端侧的时候,出现问题。

轩文烽也表示,MoE 现在的高效训练等优势其实就是通过显存换效果。虽然 MoE 不像稠密模型那样,参数增大后训练、推理成本都会显著增加,但对于一个用 4.2B 的激活参数量达到 13B 效果的 MoE 模型来说,推理成本是低了些,但是显存的占用并没有变化。

因此,「如何优化显存方面的问题,同时保持它这种获得更高效果的性价比,可能是需要行业去研究的。」

另外,一位从事 MoE 模型训练的研究员也感慨,在实际训练中,MoE 架构模型确实存在一些挑战。

比如,训练和推理难度大,万亿的 MoE 架构需要将各专家放在不同的计算节点上,会引入额外的并行维度和网络通信,专家之间的不平衡性会拖累整个系统的训练、推理效率,极端情况下可能会浪费 50% 以上的集群算力;参数利用率不高,每个专家都必须成为一定程度上的「通才」,消耗很多的参数量学习共有的基础知识,在此基础上才能有所「专精」,因此相同参数量的 MoE 模型往往比不过传统稠密模型。

但这些从业者也纷纷向雷峰网坦言,即便如此,就当下的实际情况而言,MoE 肯定是一个非常有希望的做法、必然的趋势。

或许,在算力足够的理想状态下,没有必要非得用 MoE 架构,但在算力依旧短缺的现在,无法设想那个不存在的未来。当然,如果我们把目光放得长远些,十年或二十年后,工艺持续增长,硬件和计算框架不再成为短板,到底想要使用什么样的架构训练大模型,会更自由些。

而在当下这个明确而具体的时间点,从业者能做的就是基于 MoE 架构现有的一些工艺挑战,以及可优化空间,尽量进行可能性的改进,使它的训练更高效、性能更好。

比如,如何为 MoE 设计一个更好的加速框架?MoE 模型并不是一个特别好加速的模型,因为有很多 expert ,这些 expert 如何部署,是把每个 expert 部署在不同的卡上,还是把它们切片以后进行平行、分布式部署在多张卡上,等等。

再比如,目前关于 MoE 大模型似乎开始出现一个趋势,就是当大家都在争着把大模型的参数量做得越来越大时,性能却并没有因此变好,甚至没有参数量更小的模型好。一组对比是,参数量为 314B 亿的 Grok-1 与 Mistral AI 的 8x7B 模型性能相当,这是为什么?

对此,宋晨阳认为其中一个核心原因是 Mistral AI 的信息质量更高。Scaling Law 能够成立的前提,是要有充足的高质量信息作为保证。对于同样的模型架构、同样的参数量来说,信息质量比较高的那个模型,可以用比较少的信息量达到相同的效果。

另外,除了信息,另一个决定模型性能因素是训练技巧,包括批次大小等调度,都非常有讲究,但目前这些在行业中,很多已经做得非常好的头部厂商「羞于」展示,需要更多的从业者不断实践,获得更多的经验来探索更好、更优的方式。当然,也有一些厂商敢于「逆行」,如面壁智能的 MiniCPM-2B 在发布的同时,于工艺报告中详细描述了如批次大小调度、学习率调度、词表大小选取等细节问题,为学界和业界提供了可参考的经验。

比如轩文烽在总结 XVERSE-MoE-A4.2B 大模型的研发经验时觉得,如果再重新来一遍,可能会做得更快些,实验计划会设计得更紧凑些。

虽然,大家都想找到一个最优的解决方案,将大模型训练、推理得又快又好,但不可否认,工艺探索没有边界,没有最优、只有更优。

MoE 包括稀疏化未必代表 AI 的未来,但它提供了丰富的想象空间。比如,是不是可以朝着更为稀疏的方向走去,将 expert 切得更细,细到极限,如实现神经元级别的稀疏激活,那又将会带来怎样的效果?

这是一个非常有前景、值得探索的方向。


雷峰网原创文章,未经授权禁止转载。详情见转载须知。

MoE 高效训练的 A/B 面:与魔鬼做交易,用「显存」换「性能」

风趣闻

更多 >
  • 中国最懂女人的男人:牵手林志玲,年入30亿
    更新:2025-09-09 17:26
  • 你属于我,酋长近端锋凯尔西首次晒出与霉霉恋爱后的甜蜜合照
    更新:2025-09-09 17:19
  • 泰国军方称边境冲突已致柬方24人死亡
    更新:2025-09-09 15:25
  • 甘肃酒泉市肃北县发生3.1级地震
    更新:2025-09-09 15:12

热门文章

  • 国内首例!女子出差时被领导性侵,认定工伤后获赔113万,她说:遭遇侵害不耻辱,沉默才会让施暴者更猖狂
    国内首例!女子出差时被领导性侵,认定工伤后获赔113万,她说:遭遇侵害不耻辱,沉默才会让施暴者更猖狂

    国内首例!女子出差时被领导性侵,认定工伤后获赔113万,她说:遭遇侵害不耻辱,沉默才会让施暴者更猖狂

    “监控里,我从他房间出来的时候没有穿鞋。”崔丽丽常常会做噩梦,梦里她在一片无尽的黑暗里寻找自己的鞋子,却怎么也找不到。哪怕那天的记忆因为醉酒而模糊,深入骨髓的恐惧和伤害也在潜意识里隐隐作痛。2023年 ...

  • 柬埔寨谴责泰军使用集束炸弹 泰方暂无回应
    柬埔寨谴责泰军使用集束炸弹 泰方暂无回应

    柬埔寨谴责泰军使用集束炸弹 泰方暂无回应

    当地时间7月25日,柬埔寨地雷行动管理局发表声明,谴责泰军在柬泰边境自然村使用了类似国际禁用的集束弹药的炮弹,称其严重违反国际人道主义法,对边境居民、扫雷人员及社区构成威胁。声明要求泰国立即停止使用此 ...

  • 韩法院首度认定尹锡悦发动戒严致精神损失 须支付赔偿
    韩法院首度认定尹锡悦发动戒严致精神损失 须支付赔偿

    韩法院首度认定尹锡悦发动戒严致精神损失 须支付赔偿

    当地时间25日,就104名韩国市民因韩国前总统尹锡悦发动紧急戒严受到精神伤害要求赔偿一案,韩国首尔中央地方法院作出一审判决,法院认定尹锡悦有民事赔偿责任,要求尹锡悦向每一名原告支付10万韩元约合人民币 ...

  • 「活人」吴克群,活成了「吴克穷」
    「活人」吴克群,活成了「吴克穷」

    「活人」吴克群,活成了「吴克穷」

    46岁吴克群的蜕变,是从母亲的去世开始的。2018年,患了癌症的母亲病情突然恶化,等他赶到医院时,母亲已经失去了意识。就差半个小时,他没有见到母亲最后一面。那成了他此后最大的遗憾——从来不知道母亲最后 ...

  • 超500台军参加美方演习?国台办回应
    超500台军参加美方演习?国台办回应

    超500台军参加美方演习?国台办回应

    8月27日上午,国台办举行例行新闻发布会。记者:据美媒报道称,有超过500名台军士兵参加美军今年度“北方打击”演习,并首度将模拟作战场景自欧洲转为“印太”区域。请问对此有何评论?国台办发言人朱凤莲:我 ...

  • 俄称控制多个定居点 乌称击退俄多次进攻
    俄称控制多个定居点 乌称击退俄多次进攻

    俄称控制多个定居点 乌称击退俄多次进攻

    当地时间25日,俄罗斯国防部发布一周战况信息称,过去一周,俄军控制了5个定居点,并对乌克兰军工企业、乌军军用机场基础设施、乌军无人机组装和储存设施等军事目标发动了10次联合打击。俄军黑海舰队摧毁了4艘 ...

  • 泰柬边境冲突升级 泰国军方强烈谴责柬军袭击平民
    泰柬边境冲突升级 泰国军方强烈谴责柬军袭击平民

    泰柬边境冲突升级 泰国军方强烈谴责柬军袭击平民

    △当地时间7月24日,泰国四色菊府,柬埔寨发射的火箭弹落入一座加油站,造成平民受伤。泰国军方7月25日发表声明,强烈谴责柬埔寨军队持续使用远程武器攻击泰方平民目标,包括市区、医院和学校等,称这是野蛮行 ...

  • “电驴”越来越多,拴哪?
    “电驴”越来越多,拴哪?

    “电驴”越来越多,拴哪?

    来源:中国新闻周刊在大城市生活,倘若有一辆电驴电动自行车),生活质量直线上升。开车堵、地铁挤、自行车蹬不动,一辆电驴完美解决通勤问题的同时,大大增加了生活半径。因此,近年来以电驴为代表的非机动车数量, ...

风趣潮

更多 >
  • 北约举行成员国防长会 确认支持乌克兰
    北约举行成员国防长会 确认支持乌克兰

    当地时间8月20日下午,北约32个成员国国防部长举行影片会议讨论乌克兰保障保障问题。北约军事委员会主席朱塞佩·卡沃·德拉贡在会议结束后表示,北约成员国确认支持乌克兰。北约的优先事项仍然是实现公正、可信 ...

  • 张碧晨方再回应:享有《年轮》永久演唱权,将不再演唱该作品
    张碧晨方再回应:享有《年轮》永久演唱权,将不再演唱该作品

    7月25日晚,针对《年轮》原唱争议及汪苏泷方收回《年轮》授权的回应,张碧晨方再次发布声明:经查阅张碧晨女士原经纪代理方与制作方签署的正式合约,我方艺人张碧晨依法享有该歌曲在全球范围内的永久演唱的权利。 ...

  • “是李小龙主动追求”,时隔52年,她现身回应李小龙之死
    “是李小龙主动追求”,时隔52年,她现身回应李小龙之死

    一连八集的TVB新闻资讯节目《真相猜‧情‧寻》,由擅长“寻人寻宝”的方东昇团队主持,自7月21日开播后,引起了内地网友的热议。节目一开始就抛出了重磅案件——李小龙猝死之谜。方东昇团队拆解这个流传超过半 ...

  • 传统职业遇见创新思维 你的未来不止一条赛道
    传统职业遇见创新思维 你的未来不止一条赛道

    来源:闪电新闻齐鲁网·闪电新闻7月24日讯新技术迭代、新产业勃发、新业态涌现,一个个“新”催生着职业图谱的更新。传统职业遇见创新思维,你的未来不止一条赛道。 ...

  • 星星眼要跟美瞳小花再婚了
    星星眼要跟美瞳小花再婚了

    喜剧校草在外有花花肠子,妻子危机感是有的。她跟夫家的人处得不算很好,可是生了孩子之后,公婆对她态度有所好转,只有大姑子会给她脸色看。她在家忙着生孩子,可对喜剧校草的防备一点没少,私下还报班学了财务,狠 ...

  • 伊朗与欧洲三国在伊斯坦布尔开启新一轮核谈判
    伊朗与欧洲三国在伊斯坦布尔开启新一轮核谈判

    当地时间7月25日,伊朗与伊核协议中的英国、法国、德国三国即E3)在伊朗驻伊斯坦布尔总领事馆开启新一轮核问题谈判。这是自6月以伊停火以来,伊朗与欧洲三国的首次会晤。根据此前多方消息,谈判预计于当地时间 ...

  • 加沙停火谈判有反转 分歧不大还有得谈?多方表态
    加沙停火谈判有反转 分歧不大还有得谈?多方表态

    本月6日起,以色列与哈马斯就加沙停火问题展开新一轮间接谈判。以色列和美国方面24日均表示哈马斯缺乏诚意,从多哈召回了参与谈判的相关人员,谈判疑似破裂。作为斡旋方的埃及和卡塔尔25日则表示,谈判取得了一 ...

  • 河南上调退休人员养老金
    河南上调退休人员养老金

    7月25日,河南省人力资源和社会保障厅、河南省财政厅发布关于2025年调整退休人员基本养老金的通知。根据通知,从2025年1月1日起,为2024年12月31日前已按规定办理退休手续并按月领取基本养老金 ...

  • 女子在麦当劳打骂工作人员,称“认识大把警察”?警方通报
    女子在麦当劳打骂工作人员,称“认识大把警察”?警方通报

    8月19日晚,广东惠州一家麦当劳内发生一起争执事件。8月21日,惠州市公安局惠城分局就此事发布警情通报:8月19日20时许,惠州110接群众报警称,在江北街道某餐厅内有一女子闹事。接报后,我局立即出警 ...

  • 张仲麟:俄这架客机的失事,很不幸在预料之中
    张仲麟:俄这架客机的失事,很不幸在预料之中

    [文/观察者网专栏作者 张仲麟]7月24日,俄罗斯安多拉航空一架执行巴哈罗夫斯克-布拉戈维申斯克-滕达航班的客机,在滕达机场降落时发生事故失联,随后确认坠毁在距离机场15公里的树林里,机上49人全部遇 ...

  • 张碧晨汪苏泷撕破脸!女方痛失《年轮》演唱权,《人民日报》发声
    张碧晨汪苏泷撕破脸!女方痛失《年轮》演唱权,《人民日报》发声

    谁能想到,因为一名网红的几句话,2名知名歌手撕破脸了。近段时间,千万粉丝网红“旺仔小乔”深陷舆论漩涡之中,而导火索是她要开一场演唱会,网友发现她的这场演唱会有三大奇特之处。第一处,整个演唱会“旺仔小乔 ...

  • 泰媒称泰军占领两处寺庙 柬埔寨国防部否认
    泰媒称泰军占领两处寺庙 柬埔寨国防部否认

    △资料图当地时间7月25日,柬埔寨国防部发言人玛丽淑洁达表示,《泰国民族报》关于泰国军方占领柏威夏寺和高锡克寺的新闻报道是虚假消息,直到现在,这两处寺庙仍然在柬埔寨军队控制之下。泰国方面对此暂无回应。 ...

风风全前经纪公司称千百惠葬礼拟于周六举行!5月不慎摔跤伤势严重
风风报力压贝佐斯!乔布斯女儿将在英国大婚,新郎是奥运冠军!承办婚礼的亚洲富豪曾是英国留学生
娱乐张碧晨方再回应:享有《年轮》永久演唱权,将不再演唱该作品
风事爆微信最新公告:情节严重者永久封禁
风台独京产电影《捕风追影》获赞“近十年最好看的动作片” 成龙梁家辉“打”出新高度
热讯英国首相:承认巴勒斯坦国是加沙停火步骤之一

风风播

更多 >