热门
最新
红包
立Flag
投票
同城
我的
发布
saranormous
2 年前
trueweixin_36982654
我最喜欢邀请OpenAI研究人员与初创公司交流的一个特点是,他们可以始终如一地问每位创始人:“是什么让你认为下一代基础模型不会做到这一点?”
与其逆势而行,不如顺势而为!
下一条:
关于SB 1047法案存在一个挥之不去的误解,认为它是一种对AI模型开发的“轻触”监管方式。但在全球范围内,SB 1047是迄今为止最具异国情调的改革。情况如下。最新的修正案(6/5)试图:1. 通过删除“类似性能”条款并插入1亿美元成本门槛来缩小涵盖模型的范围;2. 明确“完全关闭”要求不适用于根据非自由裁量和不可协商许可访问的模型;以及3. 将派生模型的定义限制为使用少于原始模型计算资源25%的模型进行微调的模型。这些修正案的精神是值得称赞的。但关键问题仍然存在:义务。该法案继续施加与开放研究和开放发布明显不一致的义务。即使模型在“现成”情况下是安全的,该法案仍要求开发者防止修改或滥用,并以不适合大规模开放发布的方式将输出归因于用户。能力。该法案将低频高影响行为(如识别新病原体)与高频低后果行为(如使垃圾邮件机器人能够读写)混为一谈。这些风险并不相同,并且不仅仅是模型能力的函数。它们取决于应用程序的设计、部署规模和与其他系统的集成(即应用程序是否能执行交易或发布内容)。标准。该法案继续依赖模糊的合理性标准来确定合规性。这并没有提供多少缓解。开发者是否可以发布一个可能被用于邮件合并在网络钓鱼活动中的开放语言模型?拥有律师团队的大型科技公司可能能够应对这种不确定性。但独立实验室和希望在加州投资的初创企业则可能无法。这些意外后果是严重的,它们为基础研究的监管设立了一个令人不安的先例。6月和8月期间在州长审查之前还有进一步修正的机会。
立即登录