Размер видео: 1280 X 720853 X 480640 X 360
Показать панель управления
Автовоспроизведение
Автоповтор
当你感知到一个新东西,你自己也被改变了,吗的,太深刻了,你在认知的过程世界上就是一个不断改变自己的过程,当你设法把这个新感知让别人理解其实也是设法改变人家,所以你就会遇到拒绝被改变的反应,于是矛盾发生了
可能AI会协助人类的科学推进得更快,可能比以前快上数十倍。
LLM只是文科生,有很强的文字理解能力,并且会越来越强。但LLM没有计算能力,所呈现出的似乎像那么回事的计算,只是一些记忆的“口诀”映射。未来,AI肯定会替代科学家,但肯定不是LLM。LLM只是AI的一部分。
能夠自我改變模型,才是真正的智慧
事物的抽象化从而引申出新的概念、新的元素或新的思潮,我认为在多数地区是不可想象的。在人类的意识形态里(特别是中华地区)往往是非传统的则不可被接受,否则就会被判定成离经叛道。所以,再回到科学的角度,现阶段所有科学的基础都来自于数学,数学工具的应用就离不开统计(例如,像贝叶斯这样的概率学科其依据也是基于统计)。所以,我个人认为“AI能取代科学家,解决科学问题”先阶段是不可行的,因为现阶段的AI还是依赖于人类的计算和经验。但是,按照现在AI的发展趋势,它跳脱出人类的“统计框架”束缚是必然的,它只是时间问题。“AI能取代科学家,解决科学问题”-未来可期。
对人类有趣的东西,对计算机并不有趣,正如曾经人们认为地球是宇宙中心一样,人类也并不一定是物种中心。创造不应该被局限在某些人或者某个物种之中,虽然是以人类数据为基础的。
如果给AI足够的时间,它们可能能创造出让人类科学家也意想不到的东西和理论。以后人类与AI的竞争/差异估计就是创造力的比拼。AI的优势是创造的快。但是人类个体的多样性和基因的多样性也是人类的优势。说不定哪天就诞生一位超越AI的创新大王呢
换言之,人工智能无法提前确知人类对新兴事物的需求,因为这是人的独有主观体验;甚至人类自己都无法确知自己新的需求,只能当新的事物出现后且体验到后才能知道“我更喜欢A而不是B,至于为啥我也没法(用逻辑)解释,就是感觉这个更好。”这就像视频中提到的人类在选择内化哪些新知识的时候具有主观性。但这种主观性是符合人类或者一个代表性团体(比如,科学共同体)的主观偏好,也是个体间的博弈、妥协、冲突与协同的结果。
哪天, AI 会找 AI 喜欢的东西,而不会理会人类的需求。
人獨有對未來的想像力是AI所欠缺的!
我靠,你这一集的信息量太大,你讲的太快,不过很有启发性
哈哈,可以多看几遍
这话看开头几分钟就确定了没错。。。但是不可约和可约是不是类似线性发展和离散的区别?线性发展就是跟盖高楼一样基于前置工作的延伸。不可约就是没有什么新技术,也没什么特别高明的理论,只是一个简单的方法解决了某个方向的大问题,并且使用这种思路到其他领域去也能使用。整体拔高了人类是下限?不是很懂什么是可约不可约。大部分工作一般是可约的吧?至少没有见到什么不可约的,只不过我们对知识和方法学习的局限性导致了不可约?因为科研其实大部分技术背后也包含了思想和理论。听说过不可约,但是怎么想也想不到什么工作是不可约的。数学物理天文另外说。。。大部分我们其他专业的工作就是从他们那边拿东西。。。。
AI確實不能預測人感興趣的東西。但是人可以被AI馴化,AI給什麽人就喜歡什麽。就如同tictok正在做的一樣。
听明白了, 今天还不行, 但是明天可能就行了。 matrix 我们人类的终极命运 😁
簡單來說,AI超越不了量子力學?
🎉🎉🎉❤❤❤
就看那个奇点什么时候来了……
說No不如說Not now
嗯,你说的可能更准确
目前:AI不能取代人;未来:AI能取代人。只是时间问题
如果AI可以取代人,AI不需要預測什麽
還能取代你已死的家人 在發展個幾年 聯資料比較多的科學家都能複製 以後我們上課 直接跟當初那位科學家學了 然後那位科學家下班 會去跟愛因斯坦聊天
只能说目前的这些智能模型还不具备成为科学家的能力!未来十年内,AI一定能取代科学家,一定能解决科学问题!
又要一群人失业了🤣
可以成为科研助手,但应该无法取代科学家。况且,即使一大堆职业会被取代,这也意味着能够自动化生产的产品和服务越来越多,而价格却非常低廉。那么社会为失业者等弱势群体提供保障性服务与产品的质与量也将越来越高。
AI可以解決很多科學問題,但是會發現更多科學問題,需要更多科學家去使用AI一起努力
啥是计算不可约性?能通俗解释吗?
ChatGPT的解释:计算不可约性(Computational Irreducibility)是一种理论观点,由物理学家斯蒂芬·沃尔夫勒姆提出。这个概念认为,在某些系统中,无法找到比直接模拟系统本身更快的计算方法来预测系统将来的状态。通俗来说,计算不可约性就像是一个非常复杂的谜题,唯一解开它的方法就是一步步跟着规则来解,而不能通过一个简单的公式或捷径来得到答案。就像我们不能预测一个非常复杂的天气系统的未来状态,除非实际模拟整个过程,也无法预测一个复杂算法的最终结果,除非真正一步步去执行这个算法。例如,考虑生命游戏这样的细胞自动机,它有非常简单的规则,但是生成的模式可能非常复杂。要知道一个复杂模式数百步后的样子,通常我们没有别的方法,只能一步步模拟这个过程,而不能直接跳过中间的步骤得到结果。这就是计算不可约性的一个例子。
@@hxlbac 解释的非常好,谢谢。
一个比喻是压缩文件:一个未压缩视频,相当于物理现实。通过某一种方式压缩了 ,生成的文件就像 物理法则一样, 因为它可以更简练的描述一个更复杂的事实..不可约是,无法被简化的事实.. 无论用什么方法都无法压缩的文件..
我觉得能取代任何人
说真的AI不能继续这样发展了。现在资本已经疯了,不思考AI具备的破坏力。疯狂掩饰。这个世界的商业和宣传,以及大部分人的盲从已经把人推到悬崖边上了。什么生活更美好,包裹着糖衣的炮弹罢了。等到爆炸的那一刻,只有提早趴下的人有几率活着。但是糖衣包裹注定了大部分人一定会去接近炮弹。AI发展如果不修改方向,人就彻底没了。那些宣传AI威胁的节目播放量绝对远低于人工智能带来好处的播放量。。
AI的黑盒子裡面已經解決科學問題無數次了,只是AI不知道它解決了科學難題,所以只能從幾億個答案中挑了一個錯誤的答案給人看!除非用上地來訓練AI,否則靠人就不可能!
首位加油博主
Part 1):任何一條神經網路也是一個多變數廻歸分析,也是統計學迴歸分析的一環。我在40年前攻讀數理統計就涉及這些人工智能及多變量(含時間變量)的廻歸分析(向量/ 矩陣/ 線性代數/ 機率/ 取様….), 以便對一些事件做出精准智能的預測。所謂自我學習或機器學習也只是用後面收集或模擬出的更新的資料去修正原先迥歸分析的杈重或係數參數而已。而深度學習也只是處理巨量變數時,為了避免僅用單層機器學習進行巨量變數而需要解大矩陣導致對巨量平行計算的需求,進而變換設計成每層適量變數,建立多層次的機器學習修正。40 年前人工智慧就是數理統計的一大課題。馬斯克說得一點都沒錯-目前的人工智慧全部建立在數理統計的基礎上。從那時開始就不斷有各行各業的數據分析專業人士來我們數理統計這參與並學習迥歸分析。他們回去後就不斷建立了屬於他們行業內的多條神經網絡(行業內的迥歸模型)。在那時從事這類研究工作的數理統計的博士生全部被限制在晚上12 時過後才能使用國家級的超級計算機,否則我們兩三𠆤人一上線全部就大當機。我們那時也發展出一套類似挖礦機的方式,利用所有大量閒置的𠆤人電腦來提供其微小的算力,進而整合這些龐大的所謂分散型算力,但受限那時網路的不發達,很難把規模擴大。近幾十年隨計算機能力不斷提升,目前市面AI 所謂大模型,主要是著力於面對”服務大衆需要”的所謂生成式/ 語言等等的智能協作服務。就是把百行百業各個領域等等數以千萬千億計資料進行迥歸模型的建立及修正(所謂自我深度學習)而形成龐大的神經網絡。因此也不用太誇大眼下的AI , 這些早在40 年以前都已建構了理論基礎,而智能恊作早在各專業領域都已發展的非常完善,只是因過去算力不足只能在各自專業領域進行中小規模(變量數較少)的神經網絡建構。例如氣象預報就是早期最明顯的利用氣象專用超高速大電腦發展為成熟預測能力(AI)的例子,股票買賣決策也是智能恊作(AI/CIC)的典型。”把簡單數學上使用即存的規模資料或電腦模擬資料進行所謂的㢠歸分析/模型建構並藉此模型做可行的智能預判或恊作,包裝成醫學上複雜尚未完全掌握的神經網路的機制及作用原理”,不但瓢竊了數理統計在AI 發展的絕對地位,實在也是在誤導整𠆤AI 的發展。也會造成眼下一般人的過度期待和焦慮。應將AI 改稱作” CIC:Computer Intelligent Collaboration , 電腦智能恊作, 更為恰當。何謂知識? 由經驗總結後( 抽象具體化) ,就形成知識(用數字分析的表達方式就是去建構知識模型)。 形成知識後就可複製/ 傳承/ 預測/ 擴展。因此目前的AI 發展,就是在循人類文明發展至為重要的其中的一𠆤過程-只是採用了數位化的方式,將經驗知識化了。目前的AI 只是以數理統計為手段及方法論,以資訊及計算機工程為工具,進行數位型的經驗知識化的過程。人類有許多其他不同型態非常複雜的智慧,這種僅止於知識數位化的智慧, 其實離人類多型態的智慧還有非常巨大的距離。另外, 眼下AI 服務於大衆的大模型的各種數學理論及所謂的機器學習(參數修正)及深度學習(參數及變數的多層次增加及修正)。 早在40 年前相應的數學理論都已完備(但落實到實際應用上,如何解1 億 by 1 億的聯立方程組( 行列式計算), 這需要極其龐大的平行計算能力,在那時期是完全不可能的) 。 其實AI 最重要最關鍵的是各行各業各領域的專家組,而不是這些AI 編程的公司( 他們只是依需求用已完善的數學統計理論加以電腦編程後,利用巨大算力去幫忙找出合適的模型並不斷予以完善)。 只有各行各業各領域的專家組才知道在茫茫大海中的資料及訊息中,那些因素才是其所涉領域的関鍵變數,那些變數資料才是可做為他們收集分析建立模型的。例如氣象學/經濟學/股票買賣智能決策/ 醫學/ 藥學/ 農業生產/ 基因工程/ 化學工程/自動駕駛/飛彈防空系統/圖像識別及處理/ 建築結構力學/小樣品模擬模型(核爆/飛機失事)………..等等。 此外服務大衆的語言學也是極度複雜的一門學課,其可能的變量變因會高達幾千萬𠆤, 再加上多層級過濾學習修正的模式,因此其涉及的變數算力就以億計, 所以才稱做大模型。 要取那些因素進行那一層分析,主要都是語言學家在主導。而這些眼下的AI 應用的公司, 只是利用已發展完備的數學統計理論在不同領域專家組的指導下,去有效的進行數拈收集整理分析並進而建立一個特定領域的模型,作為該特定領域的電腦智能恊作工具。
很有意思的一个历史总结。其实我一直有一个问题,而且不是很难;如果我们向AI输入了全部1740年之前的数学公式, AI能否独立推导出欧拉公式?
再弱化一点,当AI掌握了全部的1740年之前的数学公式,我们问AI,e的ix power 等于什么?AI能计算出欧拉公式吗?
@@tony-rt5jq 在過去30 多年前,澳洲數學家,曾用超級大電腦, 輸入許多數學基本公理,利用超級大電腦Run 了兩𠆤月,証明了高等微積分最重要的實數論,這是數學專家組為主導的一次數學非常難的電腦的推導論證(實數論在高微的課程大約有半年的課程才說清楚,複雜度極高)
End-to-end or Input-to-output explorations of the "black box" to explore the ultimate real-world black box are a fallacy in logic. I am afraid this approach will NOT discover new things from the real-world black box.
第三✌️
有沒有意義、有沒有趣,每個人有每個人的看法
做小学数学题都困难,还取代科学家?呵呵呵
当你感知到一个新东西,你自己也被改变了,吗的,太深刻了,你在认知的过程世界上就是一个不断改变自己的过程,当你设法把这个新感知让别人理解其实也是设法改变人家,所以你就会遇到拒绝被改变的反应,于是矛盾发生了
可能AI会协助人类的科学推进得更快,可能比以前快上数十倍。
LLM只是文科生,有很强的文字理解能力,并且会越来越强。但LLM没有计算能力,所呈现出的似乎像那么回事的计算,只是一些记忆的“口诀”映射。
未来,AI肯定会替代科学家,但肯定不是LLM。
LLM只是AI的一部分。
能夠自我改變模型,才是真正的智慧
事物的抽象化从而引申出新的概念、新的元素或新的思潮,我认为在多数地区是不可想象的。在人类的意识形态里(特别是中华地区)往往是非传统的则不可被接受,否则就会被判定成离经叛道。所以,再回到科学的角度,现阶段所有科学的基础都来自于数学,数学工具的应用就离不开统计(例如,像贝叶斯这样的概率学科其依据也是基于统计)。所以,我个人认为“AI能取代科学家,解决科学问题”先阶段是不可行的,因为现阶段的AI还是依赖于人类的计算和经验。但是,按照现在AI的发展趋势,它跳脱出人类的“统计框架”束缚是必然的,它只是时间问题。“AI能取代科学家,解决科学问题”-未来可期。
对人类有趣的东西,对计算机并不有趣,正如曾经人们认为地球是宇宙中心一样,人类也并不一定是物种中心。创造不应该被局限在某些人或者某个物种之中,虽然是以人类数据为基础的。
如果给AI足够的时间,它们可能能创造出让人类科学家也意想不到的东西和理论。以后人类与AI的竞争/差异估计就是创造力的比拼。AI的优势是创造的快。但是人类个体的多样性和基因的多样性也是人类的优势。说不定哪天就诞生一位超越AI的创新大王呢
换言之,人工智能无法提前确知人类对新兴事物的需求,因为这是人的独有主观体验;甚至人类自己都无法确知自己新的需求,只能当新的事物出现后且体验到后才能知道“我更喜欢A而不是B,至于为啥我也没法(用逻辑)解释,就是感觉这个更好。”这就像视频中提到的人类在选择内化哪些新知识的时候具有主观性。但这种主观性是符合人类或者一个代表性团体(比如,科学共同体)的主观偏好,也是个体间的博弈、妥协、冲突与协同的结果。
哪天, AI 会找 AI 喜欢的东西,而不会理会人类的需求。
人獨有對未來的想像力是AI所欠缺的!
我靠,你这一集的信息量太大,你讲的太快,不过很有启发性
哈哈,可以多看几遍
这话看开头几分钟就确定了没错。。。但是不可约和可约是不是类似线性发展和离散的区别?线性发展就是跟盖高楼一样基于前置工作的延伸。不可约就是没有什么新技术,也没什么特别高明的理论,只是一个简单的方法解决了某个方向的大问题,并且使用这种思路到其他领域去也能使用。整体拔高了人类是下限?不是很懂什么是可约不可约。大部分工作一般是可约的吧?至少没有见到什么不可约的,只不过我们对知识和方法学习的局限性导致了不可约?因为科研其实大部分技术背后也包含了思想和理论。听说过不可约,但是怎么想也想不到什么工作是不可约的。数学物理天文另外说。。。大部分我们其他专业的工作就是从他们那边拿东西。。。。
AI確實不能預測人感興趣的東西。
但是人可以被AI馴化,AI給什麽人就喜歡什麽。
就如同tictok正在做的一樣。
听明白了, 今天还不行, 但是明天可能就行了。 matrix 我们人类的终极命运 😁
簡單來說,AI超越不了量子力學?
🎉🎉🎉❤❤❤
就看那个奇点什么时候来了……
說No不如說Not now
嗯,你说的可能更准确
目前:AI不能取代人;未来:AI能取代人。只是时间问题
如果AI可以取代人,AI不需要預測什麽
還能取代你已死的家人 在發展個幾年 聯資料比較多的科學家都能複製 以後我們上課 直接跟當初那位科學家學了 然後那位科學家下班 會去跟愛因斯坦聊天
只能说目前的这些智能模型还不具备成为科学家的能力!
未来十年内,AI一定能取代科学家,一定能解决科学问题!
又要一群人失业了🤣
可以成为科研助手,但应该无法取代科学家。况且,即使一大堆职业会被取代,这也意味着能够自动化生产的产品和服务越来越多,而价格却非常低廉。那么社会为失业者等弱势群体提供保障性服务与产品的质与量也将越来越高。
AI可以解決很多科學問題,但是會發現更多科學問題,需要更多科學家去使用AI一起努力
啥是计算不可约性?能通俗解释吗?
ChatGPT的解释:计算不可约性(Computational Irreducibility)是一种理论观点,由物理学家斯蒂芬·沃尔夫勒姆提出。这个概念认为,在某些系统中,无法找到比直接模拟系统本身更快的计算方法来预测系统将来的状态。
通俗来说,计算不可约性就像是一个非常复杂的谜题,唯一解开它的方法就是一步步跟着规则来解,而不能通过一个简单的公式或捷径来得到答案。就像我们不能预测一个非常复杂的天气系统的未来状态,除非实际模拟整个过程,也无法预测一个复杂算法的最终结果,除非真正一步步去执行这个算法。
例如,考虑生命游戏这样的细胞自动机,它有非常简单的规则,但是生成的模式可能非常复杂。要知道一个复杂模式数百步后的样子,通常我们没有别的方法,只能一步步模拟这个过程,而不能直接跳过中间的步骤得到结果。这就是计算不可约性的一个例子。
@@hxlbac 解释的非常好,谢谢。
一个比喻是压缩文件:一个未压缩视频,相当于物理现实。通过某一种方式压缩了 ,生成的文件就像 物理法则一样, 因为它可以更简练的描述一个更复杂的事实..
不可约是,无法被简化的事实.. 无论用什么方法都无法压缩的文件..
我觉得能取代任何人
说真的AI不能继续这样发展了。现在资本已经疯了,不思考AI具备的破坏力。疯狂掩饰。这个世界的商业和宣传,以及大部分人的盲从已经把人推到悬崖边上了。什么生活更美好,包裹着糖衣的炮弹罢了。等到爆炸的那一刻,只有提早趴下的人有几率活着。但是糖衣包裹注定了大部分人一定会去接近炮弹。AI发展如果不修改方向,人就彻底没了。那些宣传AI威胁的节目播放量绝对远低于人工智能带来好处的播放量。。
AI的黑盒子裡面已經解決科學問題無數次了,只是AI不知道它解決了科學難題,所以只能從幾億個答案中挑了一個錯誤的答案給人看!除非用上地來訓練AI,否則靠人就不可能!
首位加油博主
Part 1):
任何一條神經網路也是一個多變數廻歸分析,也是統計學迴歸分析的一環。我在40年前攻讀數理統計就涉及這些人工智能及多變量(含時間變量)的廻歸分析(向量/ 矩陣/ 線性代數/ 機率/ 取様….), 以便對一些事件做出精准智能的預測。
所謂自我學習或機器學習也只是用後面收集或模擬出的更新的資料去修正原先迥歸分析的杈重或係數參數而已。
而深度學習也只是處理巨量變數時,為了避免僅用單層機器學習進行巨量變數而需要解大矩陣導致對巨量平行計算的需求,進而變換設計成每層適量變數,建立多層次的機器學習修正。
40 年前人工智慧就是數理統計的一大課題。馬斯克說得一點都沒錯-目前的人工智慧全部建立在數理統計的基礎上。從那時開始就不斷有各行各業的數據分析專業人士來我們數理統計這參與並學習迥歸分析。他們回去後就不斷建立了屬於他們行業內的多條神經網絡(行業內的迥歸模型)。
在那時從事這類研究工作的數理統計的博士生全部被限制在晚上12 時過後才能使用國家級的超級計算機,否則我們兩三𠆤人一上線全部就大當機。我們那時也發展出一套類似挖礦機的方式,利用所有大量閒置的𠆤人電腦來提供其微小的算力,進而整合這些龐大的所謂分散型算力,但受限那時網路的不發達,很難把規模擴大。
近幾十年隨計算機能力不斷提升,目前市面AI 所謂大模型,主要是著力於面對”服務大衆需要”的所謂生成式/ 語言等等的智能協作服務。就是把百行百業各個領域等等數以千萬千億計資料進行迥歸模型的建立及修正(所謂自我深度學習)而形成龐大的神經網絡。
因此也不用太誇大眼下的AI , 這些早在40 年以前都已建構了理論基礎,而智能恊作早在各專業領域都已發展的非常完善,只是因過去算力不足只能在各自專業領域進行中小規模(變量數較少)的神經網絡建構。例如氣象預報就是早期最明顯的利用氣象專用超高速大電腦發展為成熟預測能力(AI)的例子,股票買賣決策也是智能恊作(AI/CIC)的典型。
”把簡單數學上使用即存的規模資料或電腦模擬資料進行所謂的㢠歸分析/模型建構並藉此模型做可行的智能預判或恊作,包裝成醫學上複雜尚未完全掌握的神經網路的機制及作用原理”,不但瓢竊了數理統計在AI 發展的絕對地位,實在也是在誤導整𠆤AI 的發展。也會造成眼下一般人的過度期待和焦慮。應將AI 改稱作” CIC:Computer Intelligent Collaboration , 電腦智能恊作, 更為恰當。
何謂知識? 由經驗總結後( 抽象具體化) ,就形成知識(用數字分析的表達方式就是去建構知識模型)。 形成知識後就可複製/ 傳承/ 預測/ 擴展。因此目前的AI 發展,就是在循人類文明發展至為重要的其中的一𠆤過程-只是採用了數位化的方式,將經驗知識化了。
目前的AI 只是以數理統計為手段及方法論,以資訊及計算機工程為工具,進行數位型的經驗知識化的過程。
人類有許多其他不同型態非常複雜的智慧,這種僅止於知識數位化的智慧, 其實離人類多型態的智慧還有非常巨大的距離。
另外, 眼下AI 服務於大衆的大模型的各種數學理論及所謂的機器學習(參數修正)及深度學習(參數及變數的多層次增加及修正)。 早在40 年前相應的數學理論都已完備(但落實到實際應用上,如何解1 億 by 1 億的聯立方程組( 行列式計算), 這需要極其龐大的平行計算能力,在那時期是完全不可能的) 。
其實AI 最重要最關鍵的是各行各業各領域的專家組,而不是這些AI 編程的公司( 他們只是依需求用已完善的數學統計理論加以電腦編程後,利用巨大算力去幫忙找出合適的模型並不斷予以完善)。
只有各行各業各領域的專家組才知道在茫茫大海中的資料及訊息中,那些因素才是其所涉領域的関鍵變數,那些變數資料才是可做為他們收集分析建立模型的。例如氣象學/經濟學/股票買賣智能決策/ 醫學/ 藥學/ 農業生產/ 基因工程/ 化學工程/自動駕駛/飛彈防空系統/圖像識別及處理/ 建築結構力學/小樣品模擬模型(核爆/飛機失事)………..等等。
此外服務大衆的語言學也是極度複雜的一門學課,其可能的變量變因會高達幾千萬𠆤, 再加上多層級過濾學習修正的模式,因此其涉及的變數算力就以億計, 所以才稱做大模型。 要取那些因素進行那一層分析,主要都是語言學家在主導。
而這些眼下的AI 應用的公司, 只是利用已發展完備的數學統計理論在不同領域專家組的指導下,去有效的進行數拈收集整理分析並進而建立一個特定領域的模型,作為該特定領域的電腦智能恊作工具。
很有意思的一个历史总结。其实我一直有一个问题,而且不是很难;如果我们向AI输入了全部1740年之前的数学公式, AI能否独立推导出欧拉公式?
再弱化一点,当AI掌握了全部的1740年之前的数学公式,我们问AI,e的ix power 等于什么?AI能计算出欧拉公式吗?
@@tony-rt5jq 在過去30 多年前,澳洲數學家,曾用超級大電腦, 輸入許多數學基本公理,利用超級大電腦Run 了兩𠆤月,証明了高等微積分最重要的實數論,這是數學專家組為主導的一次數學非常難的電腦的推導論證(實數論在高微的課程大約有半年的課程才說清楚,複雜度極高)
End-to-end or Input-to-output explorations of the "black box" to explore the ultimate real-world black box are a fallacy in logic. I am afraid this approach will NOT discover new things from the real-world black box.
第三✌️
有沒有意義、有沒有趣,每個人有每個人的看法
做小学数学题都困难,还取代科学家?呵呵呵