TC分享第 190 期
TC分享第 190 期
2024 week 33
你永远会低估你一周可以做的事情,在这里记录一下我这周看到的好东西。有些链接可能需要科学上网。
本周摄影
新闻思考
今天我们来聊聊最近通过加州参议院的AI法案SB1074。这一法案引起了不少科技公司的不满。其核心内容是对某些大型AI模型的开发和研究进行严格的监管。加州的一位参议员提出,希望通过法律手段,要求大公司在设计AI模型时考虑潜在的风险问题。
这个法案的初衷是好的,旨在确保科技公司在开发AI模型时能主动采取安全措施,防止可能的滥用。例如,法案中明确了Covered model的定义,即如果一个模型的训练成本超过一百万美元,或使用的计算量达到10的26次方浮点运算量(Flops),那么它将受到监管。此外,法案还对模型造成的损害设定了门槛,达到500万美元的损害就会被纳入法规的约束范围。
很明显,这个法案主要针对OpenAI、Meta等大型科技公司,毕竟只有这些巨头才有能力进行如此庞大的训练。法案要求这些公司在设计AI模型时考虑防止滥用,并且要有安全保障措施,甚至规定了如何应对模型失控的“紧急关闭”机制。
尽管法案的条文写得很清楚,执行起来却相当困难。比如,大公司可能会开源AI模型的权重(weights),但开源后的模型如何被其他人使用,其实很难控制。初次违规可处以不超过训练该模型所需计算力成本的10%的罚款,而如果是重复违规,这个罚款比例可升至30%。 如果微调后的模型被用来造成了严重的危害(例如涉及死亡、财产损害或网络攻击等),法院有权命令公司停止模型的使用,甚至可能要求删除模型及其衍生版本。
从整体来看,遵守这些法律将给大公司带来不小的负担,尤其是在时间和资源方面。这势必会减缓开发进度,甚至可能抑制部分创新。这也是为何科技公司普遍反对这项法案。事实上,很多大公司在发布AI模型时已经在进行安全审查,只不过之前没有法律的强制要求。如果法律生效,他们将不得不进行更多的测试和审查,而其中一些要求可能在技术上难以实现。
我认为,这项法案确实可能会遏制创新。通常法律往往比技术发展滞后,而现在的AI模型其实还处于相对早期的发展阶段。也许在对这些模型有更成熟的理解和监管机制后,再出台这样的法律会更为合适。目前,法案还需经过其他立法程序,最终是否会通过还未可知。但无论如何,这也反映了政府和一些AI研究者对AI技术潜在风险的担忧。过去一年间,我们也听到了类似的声音,而这一次则是通过法律手段来防范不安全的AI模型出现。
科技新闻
【1】CrowdStrike摘得最史诗级失败奖
在软件更新引发全球 IT 崩溃仅几周后,CrowdStrike 并未回避公众的关注。据 TechCrunch 报道,当地时间 8 月 10 日,CrowdStrike 总裁迈克尔・森托纳斯登上了被称为全球“安全界奥斯卡”的 Pwnie Awards 大奖的舞台,领取了“最史诗级失败”奖。
颁奖典礼在 Def Con 黑客大会上举行。报道称,与那些愿意给予 CrowdStrike“第二次机会”的会议参与者一样,颁奖嘉宾听起来“很热情”,并且感谢森托纳斯到场承认公司的错误。
组织者甚至表示,“史诗级失败”这一奖项是临时决定的。“CrowdStrike 怎么可能不获奖呢?”当奖杯在欢呼声中被带上舞台时,迈克尔・森托纳斯坦言,这“绝对不是”一个值得自豪的奖项。(IT之家)
【2】马斯克Grok生成照片尺度大引争议
日前,马斯克旗下AI初创公司xAI推出大模型Grok-2的测试版,允许社交平台X上的付费用户生成图像。该机器人在发布新的图像生成功能后,迅速变成假照片合成神器。不少网友恶搞了各种情景下的马斯克与特朗普,创意之丰富堪比嘉年华狂欢。这些照片进一步加剧了人们对虚假信息泛滥的担忧。
马斯克周三在X上回应称,Grok是世界上最有趣的人工智能。这似乎是对Grok不经审核就发布图片行为的支持。
像YouTube、TikTok等社交平台都要求对AI生成的内容进行标记,要么是由技术自带AI水印,要么是由用户进行说明,但马斯克发布的人工智能聊天机器人Grok却没有“边界感”,并未设置周全的防护措施,这与其他科技巨头和社交平台形成冲突。
【3】中国电动车7月在欧销量环比下滑 关税影响初步显现
数据平台Dataforce统计显示,比亚迪、上汽集团旗下的“名爵”等中国电动车品牌上个月在欧盟的销量环比下跌45%。该数据汇总这些车企当月在德国、法国等16个欧洲市场的销量。
【4】印尼开采电动车关键材料镍矿 威胁原住民生存
人权组织声称,印度尼西亚最大的镍加工中心之一的森林砍伐活动,正在威胁该国最后一个与世隔绝的原住民部落之一的生存。镍是制造电动车电池的关键金属。随着电动车风潮席卷全球,拥有全球五分之一镍储量的印尼出现投资挖矿热。专家担心,这可能加剧印尼的环境问题
【5】美国加州AI法案获通过,李飞飞等人强烈反对
北京时间8月16日,饱受争议的美国加州《前沿AI模型安全创新法案》(后称加州AI安全法案SB 1047)在大幅度削弱相关条款之后,最终顺利通过加州众议院拨款委员会的审核。
加州参议员维纳团队向TechCrunch表示,该法案增加了 AI 公司 Anthropic 和其他反对者提出的几项修正案,最终在加州拨款委员会获得通过,朝着成为法律迈出了重要一步,其中进行了几项关键修改。
“我们接受了提议的一系列非常合理的修正案,我相信我们已经解决了 Anthropic 和业内许多其他人表达的核心担忧,”维纳参议员在声明中表示。“这些修正案建立在我之前对 SB 1047 做出的重大修改的基础上,以适应开源社区的独特需求,而开源社区是创新的重要源泉。”
SB 1047 仍旨在通过追究开发者的责任来防止大型 AI 系统造成大量人员死亡或造成损失超过 5 亿美元的网络安全事件。然而,该法案现在赋予加州政府更少的追究 AI 实验室责任的权力。而在国家层面监管法律难产的困局中,这成为了美国在AI监管上迈出的重要一步。
但是,李飞飞、杨立昆等AI行业部分人士认为,这最终将会损害加州乃至美国在AI领域的领先地位。数百名创业者签署了孵化器YC撰写的反对信,加州的100多位学界人士也发文反对,风投机构a16z专门建立网站细数法案六宗罪。目前,美国各地都在讨论许多 AI 法案,但加州的《前沿人工智能模型安全创新法案》已成为最具争议的法案之一。
优秀的项目
Huly — All-in-One Project Management Platform (alternative to Linear, Jira, Slack, Notion, Motion)
SWE-agent takes a GitHub issue and tries to automatically fix it, using GPT-4, or your LM of choice. It solves 12.47% of bugs in the SWE-bench evaluation set and takes just 1 minute to run.
【3】adalkiran/llama-nuts-and-bolts
A holistic way of understanding how Llama and its components run in practice, with code and detailed documentation.
优秀的文章
【1】从家中偷走一个11岁女孩
【2】李沐:创业一年,人间三年
优秀的视频
【1】[bilibili]我给了AI十万块去炒A股…_哔哩哔哩_bilibili
【2】[bilibili]我把中国队夺冠瞬间做成了动画!!!_哔哩哔哩_bilibili
【3】[youtube]7 Days Stranded In A Cave
有趣的事情
【1】这扑面而来的节奏感,我怎么突然就看得懂乐理了
【2】00后有自己的请假逻辑
【3】七夕晚上,在上海翻了20多个垃圾桶 舔狗觉醒后,舔狗经济崩盘了
【4】网友:到了眼睛边上的眼泪硬是被热评给逼回去了!
【5】知识付费,花5万送50万
【6】真敢说实话啊……
【7】“牛马吃不了精细粮”,我破防了。
【8】印度一位名叫普拉巴卡尔(Anil Prabhakar)的地质学家在印尼婆罗洲猩猩保护区考察时,遇到一位正在水塘里驱逐雨林毒蛇的护林员,岸边的红毛猩猩误以为护林员被困泥潭,赶紧向他“伸出猿手”。
“我从未想过会看到眼前景象。”普拉巴卡尔说:“我就刚好捕捉到那一瞬间,非常感人。”
不过护林员没有接受猩猩的好意,自己爬上了岸,他对普拉巴卡尔说,红毛猩猩是野生动物,不宜过多接触人类。
【9】昨天Coldplay在慕尼黑开演唱会,场馆旁边有座山可以看到现场,属于是免费的山景票,结果大家形成了真正意义的人山人海……