Размер видео: 1280 X 720853 X 480640 X 360
Показать панель управления
Автовоспроизведение
Автоповтор
謝謝!
感谢支持!
AI最后的离开,在我们需要的时候再出现, 真的很有想象力🎉
斯图尔特·罗素教授的演讲确实引发了对人工智能(AI)发展的深刻思考。分为几个关键层面:---### **1. AI 的潜力与风险并存**- **潜力**:AGI(通用人工智能)如果实现,可以大幅提升生产力,解决社会不平等问题,为人类提供更高的生活质量。比如预测蛋白质结构的 AlphaFold 和在科学领域的其他突破,都展示了 AI 能成为解决复杂问题的有力工具。- **风险**:AI 的不可控性是一个巨大隐患。罗素教授将其比喻为“外星超级智能”,这表明我们对其能力的了解和控制力不足。历史上技术滥用的例子(如核能的军事化)提醒我们,技术突破常伴随灾难性后果。---### **2. 当前AI模型的局限性**罗素教授提到,现有的 AI 是“黑箱”,我们并未完全理解其运作原理。这种技术上的“不透明性”导致以下问题:- **不可预测性**:AI 在关键任务中可能出错(如无法识别围棋的棋组概念或算术计算的不准确性)。- **学习效率低下**:人类通过少量实例即可学习,而 AI 需要巨大的数据集。这种方式在资源有限的情况下难以持续。虽然现有模型展现了令人惊叹的能力,但它们并不真正“理解”世界,而是依赖模式识别和数据统计。这种基础决定了它们难以达到通用智能的目标。---### **3. 关于“人类还能做什么”的思考**如果 AI 接管了所有工作,人类的角色确实需要重新定义。罗素提到的《机器人总动员》中的“婴儿化”未来是一个警钟,但也并非必然。- **积极方向**:AI 接管重复性工作后,人类可以专注于创造性活动、精神成长和社会建设。我们可以重新定义幸福与成就感的来源。- **消极方向**:如果没有新的目标感和意义支撑,人类可能陷入无所事事的虚无状态。这需要我们提前思考教育、社会结构和价值体系如何调整。---### **4. 控制 AI 的可能路径**罗素教授提出的核心问题是:我们如何控制比自己更强大的智能?- **需要全新范式**:我们不能只关注让 AI 更强大,而忽略了如何让它“对齐”人类目标。这需要在系统设计中嵌入伦理和安全性,比如通过数学证明保证其行为的可控性。- **合作与透明性**:发展 AI 不应是封闭的竞赛,而应是全球合作的过程,确保技术透明且风险可控。- **审慎推进**:如果我们不能确保安全性,那么是否应该放缓步伐甚至暂停相关研究?这需要全球共识。---### **5. 对乌托邦与反乌托邦的反思**罗素指出,人类对未来的想象常走向两个极端:完美乌托邦或毁灭性的反乌托邦。这种二分法忽略了现实中的复杂性:- **现实路径**:真正的挑战在于找到平衡点,探索人类与 AI 和谐共生的中间道路。这条路注定充满艰难,但也更具意义。- **社会责任**:专家和公众需要共同参与,讨论 AI 的伦理、法律与社会影响,推动包容性的解决方案。---### **总结**罗素教授的观点提醒我们,不应盲目追逐技术进步,而是要对其后果保持清醒认识。AGI 的发展是一个不可逆的过程,既蕴含着巨大希望,也带来深刻危机。我们需要:1. 在技术研发中加入对伦理与安全的深入思考。2. 积极探索人类社会在 AI 时代的新定位。3. 建立强有力的全球合作机制,确保 AI 的发展造福全人类。
你講的這些都不是人類可以決定的,這是宇宙在安排的,好好放下恐懼接受宇宙最好的安排❤
o3 其實已經可以在ARC-AGI 從幾個例子中找到patterns,不知他如何看這個
当AI掌握AI训练中的奖励机制时,AI可能会成为AGI(人工通用智能)。经过多代迭代后,人类是否还能掌握AI的行动?
两年前的那个AI围棋的漏洞已经修复了。
能控制别人的偏好?DEI狂喜
人類還有信仰,還有上帝,讓我們好好修行吧!宇宙安排AI來解放人類是為了讓人類好好修身養性的😂
Thank you 大 飞 一口氣看到尾 看完再看 🏆 🏆☘ 🍉 🎆 😄 🌺 🀄 😃 💐 ☕ 🌸 😁 🏵 🎆🪅🎄 😀 🧧 🎉 😇 💮 🌺 😎 🎊 🏮 🍀 🎄 🏆 🏆
第一個 是要不要讓AI具有可移動的實體? 或者只存在於不可移動的大型數據中心。. 而這又衍伸出可移動的機器人或載具是否要讓它具有高等智慧。第二個 是讓AI多體化,跟人類一樣有不同個體 有多樣性。第三個 是需要限制網路的使用範圍範疇,限制AI個體的互相連動機制,避免形成超級AI跟跟控制人類的方方面面還有很多啦一個比較玄的講法 可能要讓AI瞭解"天道" 互進共存 互相進步共存或互相毀滅 正向循環生生不息 或逆向互相衰退毀滅多樣性 多條路多保留一線生機
不允许AI拥有实体是没有意义的, 你的老板给你打电话的时候, 你也看不到你老板的实体.
@@Wyatt-g8p 這主要是限制AI擴散它的控制能力 控制範圍
@@歸虛ai必然要有实体,或者人类进入虚拟世界。这个现实和虚拟的界限是模糊的,但是ai要和人类在同一个空间里面。
@@歸虛ai就像我们打牌时的托管机器人一样,可以更大的解放人类。你体验完的工作让ai顶替,你谈了一段时间恋爱,不想谈了,让ai顶替,让人们可以自由选择。😂
@@TalentAustin 我個人覺得機器人的AI能力需要受到限制跟限制它聯網的能力機器人只要能執行命令需要的能力即可不需要高深的AI能力,把具有高深AI能力的 限制住 不能隨意擴散。不能讓機器人占據整個生產鏈 從採礦到精煉到製造 過程當中必須有人類控制主管 必須有人卡位甚至機器人只當作遙控用 必須由人來操縱。以避免"終結者"的下場讓機器能夠生產機器
AI的发展看似是理科生的事,实质是文科生的事
说实话,他等于没说。
不知道扯了些啥。
说句实在话,现在的节目越来越没营养了。接近于娱乐节目。半个月不看也不会有什么损失。
理解一下,本来就是个娱乐频道😂
挺好的,大多数人不需要知道太多技术细节
其实,是你的水平太高了 😂
你是理科生吧,我也是,而且是做AI的。在学哲学和历史之前,我也会觉得今天的节目就是臆想。现在不觉得了,觉得很重要。有些东西没法现在就量化,但不代表不重要。
这种想法非常危险,代表你在否定别人的偏好。由此推动的智能必将是痛苦和毁灭性的。
謝謝!
感谢支持!
AI最后的离开,在我们需要的时候再出现, 真的很有想象力🎉
斯图尔特·罗素教授的演讲确实引发了对人工智能(AI)发展的深刻思考。
分为几个关键层面:
---
### **1. AI 的潜力与风险并存**
- **潜力**:AGI(通用人工智能)如果实现,可以大幅提升生产力,解决社会不平等问题,为人类提供更高的生活质量。比如预测蛋白质结构的 AlphaFold 和在科学领域的其他突破,都展示了 AI 能成为解决复杂问题的有力工具。
- **风险**:AI 的不可控性是一个巨大隐患。罗素教授将其比喻为“外星超级智能”,这表明我们对其能力的了解和控制力不足。历史上技术滥用的例子(如核能的军事化)提醒我们,技术突破常伴随灾难性后果。
---
### **2. 当前AI模型的局限性**
罗素教授提到,现有的 AI 是“黑箱”,我们并未完全理解其运作原理。这种技术上的“不透明性”导致以下问题:
- **不可预测性**:AI 在关键任务中可能出错(如无法识别围棋的棋组概念或算术计算的不准确性)。
- **学习效率低下**:人类通过少量实例即可学习,而 AI 需要巨大的数据集。这种方式在资源有限的情况下难以持续。
虽然现有模型展现了令人惊叹的能力,但它们并不真正“理解”世界,而是依赖模式识别和数据统计。这种基础决定了它们难以达到通用智能的目标。
---
### **3. 关于“人类还能做什么”的思考**
如果 AI 接管了所有工作,人类的角色确实需要重新定义。罗素提到的《机器人总动员》中的“婴儿化”未来是一个警钟,但也并非必然。
- **积极方向**:AI 接管重复性工作后,人类可以专注于创造性活动、精神成长和社会建设。我们可以重新定义幸福与成就感的来源。
- **消极方向**:如果没有新的目标感和意义支撑,人类可能陷入无所事事的虚无状态。这需要我们提前思考教育、社会结构和价值体系如何调整。
---
### **4. 控制 AI 的可能路径**
罗素教授提出的核心问题是:我们如何控制比自己更强大的智能?
- **需要全新范式**:我们不能只关注让 AI 更强大,而忽略了如何让它“对齐”人类目标。这需要在系统设计中嵌入伦理和安全性,比如通过数学证明保证其行为的可控性。
- **合作与透明性**:发展 AI 不应是封闭的竞赛,而应是全球合作的过程,确保技术透明且风险可控。
- **审慎推进**:如果我们不能确保安全性,那么是否应该放缓步伐甚至暂停相关研究?这需要全球共识。
---
### **5. 对乌托邦与反乌托邦的反思**
罗素指出,人类对未来的想象常走向两个极端:完美乌托邦或毁灭性的反乌托邦。这种二分法忽略了现实中的复杂性:
- **现实路径**:真正的挑战在于找到平衡点,探索人类与 AI 和谐共生的中间道路。这条路注定充满艰难,但也更具意义。
- **社会责任**:专家和公众需要共同参与,讨论 AI 的伦理、法律与社会影响,推动包容性的解决方案。
---
### **总结**
罗素教授的观点提醒我们,不应盲目追逐技术进步,而是要对其后果保持清醒认识。
AGI 的发展是一个不可逆的过程,既蕴含着巨大希望,也带来深刻危机。我们需要:
1. 在技术研发中加入对伦理与安全的深入思考。
2. 积极探索人类社会在 AI 时代的新定位。
3. 建立强有力的全球合作机制,确保 AI 的发展造福全人类。
你講的這些都不是人類可以決定的,這是宇宙在安排的,好好放下恐懼接受宇宙最好的安排❤
o3 其實已經可以在ARC-AGI 從幾個例子中找到patterns,不知他如何看這個
当AI掌握AI训练中的奖励机制时,AI可能会成为AGI(人工通用智能)。经过多代迭代后,人类是否还能掌握AI的行动?
两年前的那个AI围棋的漏洞已经修复了。
能控制别人的偏好?DEI狂喜
人類還有信仰,還有上帝,讓我們好好修行吧!宇宙安排AI來解放人類是為了讓人類好好修身養性的😂
Thank you 大 飞 一口氣看到尾 看完再看 🏆 🏆☘ 🍉 🎆 😄 🌺 🀄 😃 💐 ☕ 🌸 😁 🏵 🎆🪅🎄 😀 🧧 🎉 😇 💮 🌺 😎 🎊 🏮 🍀 🎄 🏆 🏆
第一個 是要不要讓AI具有可移動的實體? 或者只存在於不可移動的大型數據中心。
. 而這又衍伸出可移動的機器人或載具是否要讓它具有高等智慧。
第二個 是讓AI多體化,跟人類一樣有不同個體 有多樣性。
第三個 是需要限制網路的使用範圍範疇,限制AI個體的互相連動機制,避免形成超級AI跟跟控制人類的方方面面
還有很多啦
一個比較玄的講法 可能要讓AI瞭解"天道"
互進共存 互相進步共存或互相毀滅
正向循環生生不息 或逆向互相衰退毀滅
多樣性 多條路多保留一線生機
不允许AI拥有实体是没有意义的, 你的老板给你打电话的时候, 你也看不到你老板的实体.
@@Wyatt-g8p 這主要是限制AI擴散它的控制能力 控制範圍
@@歸虛ai必然要有实体,或者人类进入虚拟世界。这个现实和虚拟的界限是模糊的,但是ai要和人类在同一个空间里面。
@@歸虛ai就像我们打牌时的托管机器人一样,可以更大的解放人类。你体验完的工作让ai顶替,你谈了一段时间恋爱,不想谈了,让ai顶替,让人们可以自由选择。😂
@@TalentAustin 我個人覺得機器人的AI能力需要受到限制跟限制它聯網的能力
機器人只要能執行命令需要的能力即可
不需要高深的AI能力,把具有高深AI能力的 限制住 不能隨意擴散。
不能讓機器人占據整個生產鏈 從採礦到精煉到製造 過程當中必須有人類控制主管 必須有人卡位
甚至機器人只當作遙控用 必須由人來操縱。
以避免"終結者"的下場
讓機器能夠生產機器
AI的发展看似是理科生的事,实质是文科生的事
说实话,他等于没说。
不知道扯了些啥。
说句实在话,现在的节目越来越没营养了。接近于娱乐节目。半个月不看也不会有什么损失。
理解一下,本来就是个娱乐频道😂
挺好的,大多数人不需要知道太多技术细节
其实,是你的水平太高了 😂
你是理科生吧,我也是,而且是做AI的。在学哲学和历史之前,我也会觉得今天的节目就是臆想。现在不觉得了,觉得很重要。有些东西没法现在就量化,但不代表不重要。
这种想法非常危险,代表你在否定别人的偏好。由此推动的智能必将是痛苦和毁灭性的。