共计 1462 个字符,预计需要花费 4 分钟才能阅读完成。
本周关键词为:“不要训练 GPT-5!!!”、“不要训练 GPT-5???”、“拯救派、降临派、共存派”、“人机社会学三大公理”、“我知道他很好,但我应该怎么做?”
Part1:本周要闻
一、以马斯克为首的上千名人士,公开呼吁 AI 业界至少六个月内“暂停巨型 AI 实验”。具体呼吁内容包括:
1、立即暂停比 GPT- 4 更先进的 AI 系统训练,时间至少是 6 个月;
2、利用这段时间,开发和实施一套共享安全协议;
3、开发者应同政策制定者一道,共同加速开发人工智能治理系统。
二、OpenAI 的山姆发声驳斥马斯克等人的观点,认为一个 好的 AGI 应该具备这三个特点:
1、具有对齐超级智能的技术能力;
2、进行了大多数领先 AGI 之间的充分协调;
3、围绕 AGI 有一个有效的全球监管框架。
在他的访谈中,我被这一段话深深地触动了:“我看过埃隆很久之前谈到 SpaceX 的一段视频,当时也许是在某个节目上,很多早期的太空先驱人物当时在抨击 SpaceX,可能也在抨击埃隆。他肉眼可见的非常受伤,他说:这些人是我的英雄偶像,这太糟糕了,我希望他们能看到我们是多么的努力。我的成长过程,一直都把埃隆作为我的英雄偶像。尽管他在推特上表现得像个混蛋,我还是很高兴他存在于这个世界上。但我希望,他能多看看我们为了把这件事做好所付出的辛勤工作。”
三、包括杨立昆 (Lecun Yang)、吴恩达等众多 AI 大牛,也 发文公开反对“千人联名”。主要观点包括:
1、应用方面,教育、医疗保健、食品等领域都有很多新的应用,这将帮助许多人; 竞争方面,让第三方暂停他们不了解的新兴技术是反竞争的,树立了一个可怕的先例,是糟糕的创新政策;
2、AI 风险,目前很多流媒体平台渲染的“AI 公司疯狂发送不安全代码”是不正确的,绝大多数 AI 团队都十分注重人工智能的安全问题;
3、再回到“6 个月暂停令”本身,这并不是一个非常切实可行的建议,是在扼杀 AI 进步; 一旦开始,就没有办法停止或扭转这一趋势,这就是进化的必然;
4、要提高人工智能的安全性,应该是在安全方面进行更大的投资,有关透明度和审计的规定将更加切实可行; 应该换个角度继续向前看,更好地理解 LLM,适应它并利用其力量,感受热度。
四、这股热议,很快就从企业界、产业界、学术界挂到互联网论坛、政界上:意大利干脆封禁 ChatGPT,英国谨慎地要求保持健康发展,互联网上各路大神看得更清楚:
1、签署暂停是因为他们不信任人工智能吗? 不是,是因为他们不信任人类;
2、那既然这样,我呼吁暂停碳排放 6 个月,这样我们就可以在此期间解决气候变化问题;
3、如果是把那些在网上胡乱讨论大语言模型 (LLM) 的人禁言 6 个月,我会签的;
4、有的人看到利益,有的人看到文明,有的人看到热闹,历史的车轮转起来就没法停了。
五、所幸,学术界、开源社区、企业界一直没有闲下来,本周继续在 大模型技术平替、AIGC 特别是多模态方面、业务和产业落地方面持续演进:
1、斯坦福 130 亿参数模型「小羊驼」诞生,作为 ChatGPT 的一种平替;
2、开源社区发布学术专用版“ChatGPT”,可以一键完成论文润色、代码解释、报告生成;
3、我们再一次被卡脖子了,同学们都很着急,要用 Alpaca-LoRA+RTX4090 训练中文模型;
4、图形可控生成方面,ControlNet+Lora 可以生成指定姿势的高清照片,效果真的很惊艳;
5、谷歌联手 Replit,升级 AI 编程“神器”,希望打造“超级程序员的人机交互系统”;
6、搅翻科技圈后,OpenAI 瞄准了人形机器人; 想法很自然,毕竟,AI 终归是要切入到物理世界中来。