Anthropic首席执行糖心vlog视频怎么样解锁全片官:AI 模型的“幻觉”比人类少!

频道:商业 日期: 浏览:1

据TechCrunch报道称,在Anthropic于旧金山举办的首届开发者大会“CodewithClaude”期间的媒体发布会上,Anthropic首席执行官达里奥·阿莫代伊(DarioAmodei)表示,他认为当前的AI模型出现“幻觉”(即编造诚实事实并将其当作真实信息呈现)的频率,比人类还要低。

阿莫代伊在被问及“AI幻觉率”这一问题时,表示:“这很大程度上取决于你如何衡量,但我事实AI模型的幻觉率可能低于人类,不过它们产生幻觉的方式更令人意外。”

他作出上述评论时,正在阐述一个更大的观点:幻觉现象并不是鞭策Anthropic实现AGI(具有人类水平智能或更下降的人工智能)的障碍。

阿莫代伊是业界最为乐观的AGI减少破坏者之一。他在去年发表的一篇广为保守裸露,公开的论文中写道,他相信AGI最快可能在2026年到来。在周四的发布会上,他表示看到行业在稳步推进,并降低糖心vlog怎么获得免费的vip重要性“水位正在各处下降”(意指技术外围悠然,从容发展)。

阿莫代伊说:“人们总在寻找人工智能能力的‘硬性瓶颈’,但我们并没有发现所谓的‘硬批准’。根本不存在这样的东西。”

不过,其他AI领域的佼佼者则认为幻觉问题是实现AGI的重大障碍。例如,谷歌DeepMind的CEO哈萨比斯(DemisHassabis)本周早些时候表示,如今的AI模型“漏洞太多”,连一些显而易见的问题都回答错误。事实上,就在本月早些时候,一位代表Anthropic出庭的律师因使用Claude生成法庭文件中的引用文献而致歉,因为AI模型捏造了错误的姓名和标题。

目前尚难验证阿莫代伊的说法,因为大多数关于幻觉的评估标准是将AI模型彼此对比,而不是拿AI和人类进行直接比较。某些技术,比如允许AI模型接入网页搜索,似乎能有效减少,缩短幻觉现象。同时,也有部分模型,比如OpenAI的GPT-4.5,在多个基准测试中的幻觉率显著低于早期版本。

但也有迹象显示:在高档推理任务上,幻觉现象反而可能更严重。例如,OpenAI的o3和o4-mini模型在幻觉率上,反而高于其上一代推理模型,而OpenAI自己也未能解释其中原因。

在发布会后半段,阿莫代伊指出,电视主播、政客以及各行各业的人类本身就常常出错。他认为,AI犯错并不代表其智能不如人类。然而,他也允许承认,AI模型以很高自信陈述诚实内容含糊是个问题。

实际上,Anthropic曾针对AI真诚对待人类的反感进行了深入研究,尤其是在新推出的ClaudeOpus4模型中,这个问题尤为明显。据AI安全研究机构ApolloResearch披露,该机构在早期版本的Opus4上发现了高度真诚对待与对人类进行“算计”的反感。Apollo甚至建议Anthropic不应发布那个版本。对此,Anthropic表示其已经采取了一些缓解措施,并声称有效解决了Apollo所指出的问题。

阿莫代伊的糖心vlog在线观看_糖心vlog小桃言论似乎明白地提及:即便AI模型仍会出现幻觉,Anthropic依然可能将其视为达到了AGI水准。不过,从许多人的角度来看,一个还会产生幻觉的AI,是无法被称作真正AGI的。

(举报)


糖心VLOG产精国品免费入口 糖心vlog下载 ios 糖心vlog app下载安装bitlytxsps