OpenAI的“权力游戏”还在继续,这次是联合创始人John Schulman离职,在OpenAI工作近9年后,转投了竞争对手Anthropic。
John Schulman表示此举并非出于对OpenAI的不满,而是为了更专注于AI对齐研究,并重返技术一线,他认为Anthropic能提供新的视角和研究环境,更契合他的职业发展规划。这与此前出走OpenAI的首席科学家Ilya Sutskever和超级对齐负责人Jan Leike给出的理由类似。
此外,OpenAI产品负责人Peter Deng也选择了离职,总裁Greg Brockman将延长休假到年底。至此,OpenAI的11位联合创始人,只剩下CEO Sam Altman和Wojciech Zaremba以及还在长期休假中的,Greg Brockman。这次高管的离职再次引发了业界对OpenAI发展状况的讨论,而这也是继Jan Leike之后,OpenAI高管再次跳槽Anthropic。
然而,与OpenAI“动荡”的一年形成鲜明对比的是Anthropic,展现出了令人瞩目的发展势头。不仅从吸引OpenAI人才的加盟,其最新的产品也广受用户的好评。
在竞争日益激烈的市场中,Anthropic凭借独特的公司结构和产品理念逐渐吸引了更多关注。虽然和ChatGPT还存在着较大的差距,但在过去的6个月中,Claude的流量份额逐渐增加,尤其是在最近的时间段里显示出显著的增长趋势。
“Claude额度用完就下班”
Anthropic是一家成立于2021年的人工智能初创公司,团队中包括多位OpenAI的前员工。该公司由创始人Dario和Daniela Amodei兄妹掌舵,分别担任CEO和总裁。两人此前曾在OpenAI担任高层职务。因为对OpenAI发展方向产生分歧,于是离职创办了Anthropic。自Anthropic创立以来,这两家位于旧金山的公司一直在激烈竞争,争相开发最佳的AI模型。
Anthropic最新的模型是Claude 3.5 Sonnet,在多个领域树立了新的行业标杆,包括研究生级别的推理能力(GPQA测试)、本科生水平的知识储备(MMLU测试)以及编程技能(HumanEval测试)。在多个评估中表现优异,超越了竞争对手模型,同时保持了中端模型Claude 3 Sonnet的速度和成本。
Sonnet 3.5 在chatbot arena编码类别中排名第一。
Claude 3.5超强的代码生成能力尤其备受好评,许多程序员表示写代码已经离不开Claude 3.5 Sonnet的帮助,最近,Y Combinator CEO在X转发了一篇关于夸赞Claude Sonnet 3.5的文章,获得了超过400万的浏览量。
在文章中作者写道,在使用Claude Sonnet 3.5后,工作效率有了显著提升,可以比以前快10倍的速度实现大多数流行应用程序的技术部分。虽然仍然需要做出架构和基础设施的决策,但现在像UI组件功能这样的事情快了10倍,让迭代速度非常快。
他的工作流程分为三个步骤:
1.认真思考功能,并与Claude讨论;
2.为该功能编写基本规范(通常只是几句话和要点),并与Claude进行迭代;
3.确保为 Claude 提供所有相关背景,并要求实现,(代码)
ottogrid.ai的CEO的也在跟帖中表示他们有50%的代码是Claude写的,明年会提高到 80% ,并直言“不用Claude 3.5写代码?小心被我们这样的团队甩在后面。”
Claude用不了,我干脆决定放一天假Claude额度用完就下班
更夸张的是,Anthropic的一名工程师Erik Schluntz因自行车事故摔断右手,只能用左手打字,他利用语音转文字和Claude AI来继续工作,一周内甚至写出了3000多行代码。Erik Schluntz还撰文分享了他的心得,他认为AI在软件开发领域的应用呈现出快速发展的趋势。他预测,未来 1-3 年,AI工程师将成为现实,能够自主和协同工作。届时,创造力将成为唯一的瓶颈。
Artifact:开启AI交互革命
值得一提的是,Claude还推出了新的交互方式Artifact,该功能允许用户在AI对话界面中直接运行和调试代码。Artifacts的主要特点包括实时代码执行、交互式操作、可视化预览以及跨平台分享能力。这些特性使得开发者能够快速验证想法、迭代原型,并方便地展示成果。
Claude 3.5 Sonnet + Artifacts是一个“改变游戏规则的产品”。
Artifacts为开发者提供了更直接的编程体验。许多开发者表示,这一功能开启了AI辅助开发的新可能性,有潜力改变当前的应用程序开发模式。
乍一看,Artifacts可能只是一个不起眼的更新。只是一个专门的工作区,与聊天界面并列,让用户实时操作和优化AI生成的内容。但这个看似简单的新增功能,却可能未来几年AI最关键的战场之一:交互界面。
因为AI一大挑战不仅在于创造更智能的AI,而是如何让变得易于使用、直观且无缝融入现有的工作流当中。
这也是Anthropic与OpenAI等竞争对手截然不同的地方。ChatGPT的新语音功能让人眼前一亮,Google强调Gemini的在知识获取和处理方面的能力,但Anthropic瞄准的是一个更根本的问题:如何将AI从一个花哨的聊天机器人转变为一个真正的合作伙伴?
通过创建一个可以轻松编辑、优化并融入现有项目的AI生成内容的空间,Anthropic正在试图弥合AI作为工具与AI作为团队成员之间的差距。这一转变有可能彻底改变各个行业的工作模式。
这也凸显了AI开发中日益扩大的理念分歧。OpenAI和Google似乎陷入了模型能力的军备竞赛,彼此争相打造最大、最智能的AI。而Anthropic则在下一盘不同的棋,专注于实用性和用户体验。
在一个常常被指责追求基准测试,而忽视实际应用的行业,Anthropic对用户体验的重视,可能让自己脱颖而出。随着企业努力将AI整合到业务之中,那些不仅足够智能,还能提供直观界面和无缝工作流程集成的解决方案将占据决定性优势。
随着模型之间能力差距缩小的背景下,建立一个围绕模型构建生态系统是留住客户的关键。特别是在编程领域,Artifacts为开发者提供了一个全新的、更加高效的工作流程。
当然,Artifacts还处于起步阶段,竞争对手也不会袖手旁观。可以预见的是,随着其他公司意识到重构用户界面的重要性,这一领域将涌现大量创新。
Anthropic稳健的发布,OpenAI则常被批评过度宣传
“发生在OpenAI的事情不会发生我们身上”
OpenAI此前的“宫斗”风波中,董事会解雇了Sam Altman,这件事之所以可能发生,原因在于OpenAI的公司结构埋下的隐患。在OpenAI的架构中,公司由不对公司股东负责的非营利董事会管理。
Anthropic的更接近传统公司,它有一个对股东负责的董事会,不过,Anthropic也采用了非传统的公司架构,它不是一家有限责任公司,而是一家公益公司(PBC),这意味着除了有增加股东利润的受托责任外,其董事会还有法律空间确保“变革性AI有助于人类和社会繁荣发展”,也就是说董事会选择优先考虑安全而非增加利润,股东将更难对Anthropic董事会提起诉讼。
Anthropic一直以其独特的公司结构自豪,认为自己与OpenAI有所不同。Anthropic也曾向媒体强调,发生在OpenAI的事情不会发生在Anthropic身上。然而,Anthropic的结构本质上是一种实验性设计。哈佛法学教授Noah Feldman在Anthropic建立早期治理结构时曾担任外部顾问,他表示即使是世界上最好的设计,有时也未必能奏效。但他对Anthropic的成功抱有很大的希望。
除了公司结构,OpenAI和Anthropic的另外一大区别在于,使用一种结构化的方法来确保AI系统的行为符合特定的伦理标准和行为准则,这是Anthropic的一个重要特征。
Anthropic更加关注人工智能的安全性和可控性,致力于开发出可解释、可审查、可引导的AI,以确保人工智能能够为人类服务。因此,Anthropic在训练Claude时采用了一种被称为“宪法AI”(Constitutional AI,CAI)的方法,与OpenAI的GPT模型训练方式存在差异。
通过给Claude制定一系列指导方针或“宪法”,在模型训练的早期阶段就被引入,而不仅仅是在生成答案后用于筛选。这些原则涵盖了从道德伦理到数据隐私的广泛领域,目的是让AI系统在符合这些原则的情况下作出决定和生成内容。
然而,这种承诺也带来了更大的挑战。尽管Anthropic坚守其独特的公司结构和使命,但在现实世界的商业环境中,它仍需应对外部压力和内部平衡的双重挑战。
过去一年里,Anthropic融资超过70亿美元,主要来自亚马逊和谷歌这样的科技巨头。这些公司,连同微软和Meta,都在争相主导AI领域。未来,Anthropic还需要更多资金支持。它必须持续推出更好的产品,展示巨大的利润前景来满足投资者的期望,才能获得构建顶级模型所需的巨额资金。
另一方面,如果Anthropic能保持目前这种比OpenAI更为稳健发展趋势,公司或许能够开辟一条新路——在这条路上,AI可以安全发展,不受市场的恶劣压力的影响,并为整个社会带来福祉。
本文链接:http://knowith.com/news-23-532.html人人都爱Anthropic
声明:本网页内容由互联网博主自发贡献,不代表本站观点,本站不承担任何法律责任。天上不会到馅饼,请大家谨防诈骗!若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。