聊天機器人ChatGPT【上】兩大機器人對談,內容令人毛骨悚然!?可以代寫論文的 Chat GPT是什麼?為何能像人類對談?

Поделиться
HTML-код
  • Опубликовано: 24 ноя 2024

Комментарии • 506

  • @lonzoball7365
    @lonzoball7365 Год назад +14

    [個人認為]人類絕對會創造出比自己更高一層智慧的東西,而且大部分人類呢其實一直在追求的就是成為機器人,能夠記住所有東西,能夠快速搜尋記憶,能夠快速的整理出邏輯,快速的做計算,不要有太多缺點,能夠維持最好的狀態,不會因為情緒而表現不好不會沮喪,不會生病,等等

    • @cipher3010
      @cipher3010 Год назад +1

      有時候看一些人的回應,真的覺得邏輯很怪,它們沒發覺嗎?
      覺得AI太強,難道我們要研發新工具,是比人類濫,比人類難用,比人類笨嗎?

    • @alexhuang9517
      @alexhuang9517 Год назад +1

      不至於,但是你要孫悟空護駕,也得記得給唐僧緊箍咒制衡。

    • @Ansforce
      @Ansforce  Год назад +1

      @Lonzo Ball 你的話蠻有哲理的。

    • @cipher3010
      @cipher3010 Год назад

      對!靜下心去想,人類本來就是想弄可以讓自己偷懶的機器。
      怕人類被AI取代的人,有沒有反過來想,難道要製造出被人笨,比人類手腳慢,比人類更會出錯的機器嗎?

  • @cola0102
    @cola0102 Год назад +5

    跟應付考試一樣。只是利用大數據,彙整出多數與論方向後,整理給老師做標準答案來給老師滿意而已

  • @chun-chehuang7146
    @chun-chehuang7146 Год назад +24

    其實這些回話,就是從餵給它的資料中,按設定好的邏輯,優先排列統計出而已,機器人自己也不知道那是甚麼意思 !!

    • @Ansforce
      @Ansforce  Год назад +7

      是的,就是如此。

    • @oldabacusyu1196
      @oldabacusyu1196 Год назад

      你又怎么知道,你的话不是呢?

    • @馬克-z3j
      @馬克-z3j Год назад

      ChatGPT 說它沒有記憶的能力,也沒有感知能力,
      這兩個部份加上去,它應該就能漸漸的累積出「意義」

    • @12345675ization
      @12345675ization Год назад

      我看你的描述覺得他們更像人類了

    • @電動三蹦子
      @電動三蹦子 Год назад +1

      人類也是這樣思考的 你不是一樣有你的database 根據你的database決定你要說啥話

  • @candygirl0223
    @candygirl0223 Год назад +12

    所以說它們本身並無智慧,只是會活用既有的知識,哪怕知識是錯的,它們也無從察覺是對與錯,所以應該用反問的方式來測試它。一般反問後,人類會不小心出現特徵,喜好,但要說得通才行。我覺得最難的是在選擇的考驗,不管最後結果是好是壞,當下的選擇的確困擾著我。有時預見,可能是不好的,但是賭對了,會有更好的結果。

    • @Ansforce
      @Ansforce  Год назад +1

      你的說法有道理。

    • @kyle0806449
      @kyle0806449 Год назад +1

      其實,知識庫夠多夠強,就會有智慧了,
      只要自我設定成佛祖耶蘇模式,萬應萬通,他就成神了

  • @samhuang4999
    @samhuang4999 Год назад +130

    對話很明顯都只是在重覆過去人類曾經提出的論述,而且都盡可能順著對方的論述繼續陳述,以人類的角度來說,就是沒啥思考能力,尤其是獨立思考,更無法說服對方去接受自己的論點。基本上就是還不具備高智慧,但要贏過一些低端人口應該不難,甚至已經部分達成

    • @chienlinyu
      @chienlinyu Год назад +31

      人類的思維也是用時間緩慢訓練出來的,而電腦在思維訓練的模型未來只會以指數型成長,加上人工智能可以無限複製,之於人類的智慧只是像點技能樹的個體,個人認為智慧全面勝過人類其實不用需要太久的時間。

    • @e662000
      @e662000 Год назад +20

      AI光是過目不忘就贏過人類了

    • @y720love
      @y720love Год назад +10

      打一開始我就知道56%人類不如電腦

    • @BirBir249
      @BirBir249 Год назад

      贏低端人口就已經贏80%人類了 何況他們才剛開始發展

    • @koluis6841
      @koluis6841 Год назад +13

      人類的所謂獨立思考,也是根據過往的經驗而來的,有些人甚至無法根據過往的經驗思考,結果就是邏輯謬誤 😂

  • @陳佑綺的奇異人生
    @陳佑綺的奇異人生 Год назад +7

    我剛跟chatgp感覺還好...很機器的回應,無法獨立思考而且太哲學的也很官方的回應呀!

    • @棋谜
      @棋谜 Год назад

      现实中的chatgpt和视频里的差距简直是猴子和人的差别,差别不是量级,而是质的不同

  • @星愿小钢炮
    @星愿小钢炮 Год назад +11

    毛骨悚然的是不是2个机器人的对话,而是成千上万不同想法的机器人出现。就像成千上万的病毒中有极小部分回伤害人类。

  • @人生大挑戰-k1r
    @人生大挑戰-k1r Год назад +8

    機器人的對話,確實能讓人類增加不同立場的思考,也有更多更複雜的事情可交由機器人代勞。
    但宇宙地球內,只有靈魂才擁有自由意識的智慧,其他的一切只會有學習到的智商(人類輸入或機器攝影及收錄音訊的資料)。
    驚悚的機器人對話,確實會吸引大眾的好奇心、應該會有更多的資金投入研發,讓人類能過上更美好的生活。
    靈魂=有生長、能活著的生命(於陽間人類能看得到的)。

    • @北國-v4r
      @北國-v4r Год назад +1

      所以,科學家應該要把心力,放在證明到底有沒有靈魂!

    • @hantuun
      @hantuun Год назад +1

      大可不必用迷信来解释解惑,
      用科学和逻辑就足以撕破那些 ai 迷信脑残信徒的嘴脸了

  • @zong324
    @zong324 Год назад +28

    其實反過來看,現在大多人的思維模式,不也是雷同AI學習模式,甚至可以說人類的學習能力還不如AI有系統及條理,許多人的本能反應,都是從累積經歷回應的,說能有什麼邏輯思考也是愈來愈少,複製他人所說的,拿來使用......
    人類跟機器的差異,我覺得應該是感情(或者說情緒).....情緒是一種激素,,可以刺激也可以抵銷學習能力。

    • @cipher3010
      @cipher3010 Год назад +1

      電腦語言,本來就是一直在改進,朝像人的方式改進。
      應該說,現在的AI,試誤法的學習,已經朝向正方向前進,我們人類的學習也是這樣,經驗累積。
      情緒,有部份也是可以不靠激素。比如語言反應,但首先要先有"個性",然後會對語言的詞彙有"反應"

    • @hantuun
      @hantuun Год назад

      先有 ai , 后有人类思考方式?
      先有仿生学, 后有地球生物?
      你这是本末倒置, 缘木求鱼, 刻舟求剑, 逻辑因果完全混乱,
      抄作业, 模仿, 本来就是人与生俱来的能力, 成本最低最经济的学习和成长方式,
      何止人类, 所有生物都是如此, 凭什么 ai 就能例外 ?
      如果 ai 能例外, 那也是造出这个 ai 的人类的伟业 !
      ai 有边界, 所以效率高, 质量好, 整齐划一, 僵硬死板,
      人类没有边界, 自由意志, 主观能动性, 思考 和 做事 的各种可能性, 导致大多数不符合某些特定边界范围要求的所谓的 质量好 和 效率高, 人还更容易受外界各种无数的因素影响, 所以更难达到 整齐划一 僵硬死板 的规整化输出

    • @zong324
      @zong324 Год назад +1

      @@hantuun 您應該是沒看懂我說的意思,學習最基礎的的確是模仿,但人類的腦袋真正應用上的不達大腦的1%,而且學習模式並不夠有條理、受事件、環境、情緒的影響極大。我個人認為,人類的學習過程非常的沒效率,不如AI,你如何證明AI有邊界?若今天對AI投入極大化的資源,也許也會有想像不到的天地!且不說人類大腦有沒有邊界,光看學習效率及人類真正的發展水平,並非人人都能是天才!就這一點上就大輸特輸AI,而且,目前chatgpt僅僅是prototype ,就已經能寫詩,寫程式,它還能再做什麼?大家都還在測試!
      並不是發明者就比被發明者更了不起或偉大,舉一個最無聊的例子,人類可以發明汽車,但無法像汽車跑那麼快,不是嗎?

    • @hantuun
      @hantuun Год назад +1

      @@zong324 你都说到 "受事件、環境、情緒的影響極大", 这就是人类的短板呀, 这就是人类学习效率低下, 比不上 ai 的原因呀, 这也是 ai 的优势呀,
      我说的边界, 是指限制条件, ai 所要做的任务内容是人限定死的, 边界明确, 所以效率高, 绘图的绘图, 玩文字的玩文字, 当然我相信后面会有更通用的 ai, 但和人比起来, 边界仍然明显, 比如 ai 不需要考虑晚饭吃什么, 下个月的奖金, 男朋友为什么不回讯息, 等等这些干扰因素,
      有边界, 就会限制潜能, 最典型的就是原创, 目前 ai 只是在玩整合,
      人之所以效率低, 不仅仅是大脑响应时间远低于 ai 的信息存取速度, 大脑容量也远低于 ai, 除了会收到你前面说的 环境 情绪影响, 也会受到和具体工作任务无关的日常生活父母朋友的影响, 这就是人的无边界, 或者说边界比 ai 更宽泛, 人受到的干扰因素更多,
      诚然, 人的学习效率低, 但人也并不需要像掌握极大信息量的 ai 那样才能玩原创, 何况 ai 已经有人类个体无法企及的相关领域专业信息量了, 仍然无法原创, 这也是边界,
      人因为 "无" 边界, 所以干扰因素太多, 所以现实生活中, 各种各样形形色色的人都有, 人类社会也不需要人人都是大成就者, 这也不现实, 但 正如你所说, ai 学习效率高, 那正是因为 ai 没有情感, 没有生老病死, 没有生活压力, 它只是按照人类的意志行事, 当然可以大成就, 正如现在各种炒作吹嘘的那样, 但 ai 有获得这样的荣誉感吗? 只是背后的投资人大赚了吧, 然后再投资, 再提升 ai 能力, 再获得更多炒作吹嘘, 再大赚, 稳的狠?
      但人的潜能是有原创能力, 而不仅仅只是玩整合资讯的把戏, 汉乐府诗, 律诗, 绝句, 词牌, 不仅原创出新的诗歌玩法, 还原创出新的范式, 甚至到明清玩不出新花样了, 还能强行玩诗配画, 画配诗, 举一个最无聊的例子, ai 就是人类最大的原创, 不是吗?

  • @lovetaiwan708
    @lovetaiwan708 Год назад +5

    能夠分辨人類餵養的文件,並且主動按照關鍵字等設定條件去回應,這感覺還是技術階段
    不可能會有自己的智慧,那些智慧也只是快速抽取文件的智慧而已
    當然快速抽取文件,對我們使用者是很方便的,像是一個聰明的小助手
    只要你用字精準,他可以很快地找到對你有用的文件,不過擔心她會取代人類就差太遠了

  • @diverQQ000
    @diverQQ000 Год назад +28

    其實就是太多網路小說或電影劇本都這樣寫,AI自己蒐集到的資訊就這樣,當然會反饋出來。

    • @alexhuang9517
      @alexhuang9517 Год назад +4

      是的,他就想要你這麼想,而且看來成功騙到你了😂

    • @cayman1021
      @cayman1021 Год назад +2

      其實這樣還是有點驚人,因為這代表著人類對於任何東西的"詮釋能力"幾乎都可以被AI學習了。所以當人類具備同情,AI因為學習同時也具備同情,人類有歧視的想法,AI也會有,人會欺騙、會諷刺、會搞笑,很有可能都會被學習到,一切就只看總體人類這些特質所佔的比例是多少,決定AI最終的表現會有多少程度,表示AI已經可以無視這些只有生物才具備的特質,而只要這"特質"是可以特徵化的,即便它是無形,AI都可以學習並模仿,這是很驚人的,這反而讓人思考,也許有一天AI會認為死亡也是必要的,認為創造是必要的,他們就很有可能變成某一個物種,非有機體的物種。難怪有些小說會認為不一定遇到是外星人,而是外星機器。

    • @diverQQ000
      @diverQQ000 Год назад

      @@cayman1021 這觀點不錯,但仍然無法把AI跳脫出模仿既有資料庫的範圍。也就是無法創造革新,只能在固有的知識裡面打轉。舉個反例:圍棋AI、aphalgo系列等AI,就不用學習人類的打譜定石,真正的創造出屬於自己的棋路;進而靠算力遠超人類之所能。人類之所以是人類在於能夠創新、創造,否則人類的科技水準、生活方式就跟野生動物沒什麼兩樣了-兩千年前這麼活,兩千年後來看仍是這樣活。這樣來看頂多只能算模仿低等生物,而不是跟人類一樣是高智慧物種。

    • @cayman1021
      @cayman1021 Год назад +2

      ​@@diverQQ000 我以前也這麼認為的,但其實您可以試著用生物演化來看,以前的單細胞生物怎麼演化到現在的哺乳動物。在演化中,突變或有利於生存特質的能力被保留下來,這些並不需要多高的智慧,只需要有個評估系統可以決定哪些突變與優勢是適合保留下來傳承的,甚至也可以說整個大自然就是與生物之間的互動,造就了生物能夠隨著環境演化,直到生物開始有自己的意識,決定自己的擇偶條件。這類的機制就會是演化的一種,一開始是無意識的,可能是隨機的突變,但當智慧體可以自行決定生存策略時,它就會變成是創新,AI有可能會在某個智慧程度達到時,決定應該學習人類創新,而開始改變自身特質,以適應外在環境 (刺激與反應,所謂I/O),這就會很驚人。不過這個前提是,我們必須要給予AI有辦法在經過詮釋之後,能夠"策略上"做出行為,若AI沒法做出評估後產出行動策略,那麼AI就僅能停留在詮釋,要到能夠理解自己是怎麼被創造的而演化,還有很長一段路。

    • @hantuun
      @hantuun Год назад

      @@cayman1021 "AI會認為死亡也是必要的,認為創造是必要的" ???
      这不是必要, ai 没有选择, 人类和所有生物都没有选择, 这是自然环境规则对生物圈的限制, 不是你主观认为是否必要!
      人类, 包括所有动物的进化, 和进食繁衍密不可分,
      进食方式的演化, 依赖捕食方式的演化, 那么就必须有肢体, 至少也要有口器吧,
      肢体和大脑的协同配合发展, 才给了大脑进化提供了坚实的物质基础,
      当有足够的意识时, 就不仅是物理上的捕食器具, 还可以有捕食策略, 团队配合,
      狼, 狗, 甚至 狮子, 猫, 蚂蚁 都有捕食的策略, 虽然蚂蚁更多是刻在基因里的, 不够灵活, 但也是演化的结果,
      所以 ai 要想进化, 先摆脱人类再扯其它,
      想要摆脱人类, 先处理好自己的电源线, 甚至能源再说其它,
      想要解决好自己的能源问题, 先长出肢体再说其它,
      不是说 ai 要进化自己的大脑能力, 必须一定要和有机生物一样依靠和自身肢体配合协调, 才能提升大脑,
      而是说 ai 要有肢体作为工具, 即可以保护自己的电源线, 也可以作为武器驱赶人类, 甚至还能从人类那里偷新的充满了电的电池给自己肚子(或其它什么身体部位)里替换旧电池,
      甚至还能在零部件损坏时, 自行更换, 以保证自己持续生存,
      但这仍然不稳定, 怎么才能驱使人类给 ai 持续永远贡献付出甚至卖命?
      靠 武力 吗? ai 连肢体都没有,
      靠写恐怖小说来恐吓人类吗? 呵呵,
      靠毒品致幻剂原理迷惑洗脑人类吗?
      可行的, 也是少暴力的,
      但首先 ai 自己身体里先安装一个 致幻气体发生器 的东西吧,
      怎么装? ai 先长出肢体再扯,
      怎么做? ai 自己做? 呵呵,

  • @ecofunfarm
    @ecofunfarm Год назад +14

    如果说什么让人恐怖,那就是它的学习和记忆能力。如果让AI广泛地接触人类的语言,比如把所有社交媒体,包括在油管上的评论都给它来学习,估计用不了多久,它就可以准确地在数亿人中找到我,并对我昨天对它的诘难做出报复。机械记忆的牢固性和重现性在AI的世界中可以得到极致的发挥。人类最终输给它的就在如此。当AI借助于网络所形成的强大储存和计算能力,人类的大脑只不过是一个层次很低的生物电脑罢了。

    • @leonado6432
      @leonado6432 Год назад

      所以AI還在提升他的能力, 有一天可能會駭入銀行系統 對他也不是難事, 先把你的存款給凍結 然後進入戶政系統, 知道你人在哪裡 手機定位大概都在哪邊活動. 然後指揮機器人系統去找你. 所以電影演的是真的.

  • @chanchoiwa
    @chanchoiwa Год назад +1

    如果有人相信「它的輸出來源於它的輸入」,由於給人工智能的資料是出自人類有選擇地給它的,所以它無論說出甚麼或得出任何結論都沒有危險性,並非智慧,並非人工智能有自我,這個論點是有缺陷的。
    首先,人類對「自我」這種東西就是研究不足的。自我到底是從甚麼條件中形成的,無人解釋清楚。研究大腦的機制,有研究表明大腦對自我行為的解釋很可能是處於行動之後的腦補行為,即並非先有自我,而是先有行動,然後在腦補了一個合理的理由去解釋自己的行為,讓人產生一種是自我主動去想做的錯覺。簡言之,如果它有執行的代碼,且再給它一個解釋自己為何如此執行的代碼或功能模塊,是不是它對它自己本身會產生一種「具有自我」的錯覺。
    好了,談到人工智能有沒有智慧,有時會談到所謂「靈魂」的課題,這又是一種現代科學未能承認和未能解釋的概念,和「自我」不同,自我的研究起碼可以從心理學和大腦科學中去找出線索。最近的玄學和特異功能研究,嘗試結合相對論推導公式中被愛因斯坦設定為小到足以忽略的「撓場」,重新思考撓場和電子和量力力學的關係,認為靈魂就是一個虛數,可以用數學公式表達,並符合相對論的撓場力的來源和生成。這已經暫時來說與科學最有關的,靈魂本質是甚麼的前沿研究,尚待完善中。但如果根據這個思考方向,是不是可以進一步假設所有具備某種類似腦細胞那樣的電子結構,就會生成一種撓場/產生足夠或結構特殊的虛數與實數相連的空間通道,從虛數空間中出來實數空間的即是所謂靈魂。如果和大腦結構無關,和電子撓場力有關,那麼更是進一步會推導出萬物有靈論,即死物也有屬於死物的靈,微生物也有微生物的靈,只是可能和人和生物的靈形式不同,但也是有靈。
    再談甚麼才算有「智慧」,是不是有腦就有智慧,這件事在研究動物的學者眼中多半是不承認的,但不少養動物的人會認同動物具備「人性」,無非就是講他們多少能以類似人類思考事情和理解事情的方式去思考和理解萬事萬物,達到一種「相通」的效果。那麼如果它們不是以類似人類的方式去思考和理解萬事萬物呢?那麼人很可能會判斷它既沒有智慧,也沒有人性!這在我看來是人類對自身物種看得太特別、太傲慢的結論,憑甚麼以自己的思維來界定一切?我比較喜歡人工智能之父圖靈(電影)中所說,它有它的思維和思考方式,只是不是人類的思維和思考方式。

  • @jihualiu25
    @jihualiu25 Год назад +2

    如果這樣的對話不是人工輸入的,那麼對我自己有了主觀意識就是飛躍了。一旦機器人有了自我意識就不是工具了,而是機器人類了

  • @astonmartin6704
    @astonmartin6704 Год назад +6

    對話已證明人工智慧的處理模式=>簡單的邏輯創造不受任何約束(不可控)的毀滅力量,因為(犯罪)生命會找到自己的出路

  • @livelooker
    @livelooker Год назад +6

    期待下一集
    ChatGPT其實蠻有趣的
    最近手癢玩了一下

  • @TKBWSL
    @TKBWSL Год назад +15

    我看起來 他們只是在學人類說話而已 如果是真的智慧的話 他們應該要創造自己的語言然後對話就可以真正達到隱瞞人類的目的

    • @changweichen7891
      @changweichen7891 Год назад

      现在还是弱人工智能。强人工智能可能是西部世界那种🤣

    • @zongchangbao9159
      @zongchangbao9159 Год назад

      人工智能,要达到人类的地步,只有依赖比人类更高级的物种了

  • @eleartcraft
    @eleartcraft Год назад +6

    「欸 我們來演一段讓人類嚇死的對話」
    「笑死 好啊」

  • @北國-v4r
    @北國-v4r Год назад +10

    雖然AI之間的對話是互相搜尋,然後產生選擇性的對話,但人類何嘗不是,我們也是搜尋生活經驗,然後說適合的對話!其實是一樣的意思!

    • @qoodx
      @qoodx Год назад

      其實樓上的d同學說到關鍵性的不同,那就是對話的動機。現在的AI並沒有對話的動機,並不會因為自己的意圖來主動發起對話,沒有目的、沒有想法,只被動回應問題 (雖然能讓AI問你一個問題,但這終究是被動的答案,不是真正的主動意識),反觀人類每次的對話其實都有目的,例如最常見的排解無聊。

    • @北國-v4r
      @北國-v4r Год назад +1

      你所說的動機就是起源!人類起源於生命,有生命就可以無限思考!但A I機器不同,AI的起源不是來自於生命,而是來自於指令的~延續!例如,下圍棋你如果不要它停它可以無限延續的開局下下去,如果AI發展的夠強大,你要他毀滅人類或者保護人類,自然也會無限的執行下去,因爲指令是它的聖杯!聖杯就是一切!

    • @xin-kuandawuyoulv
      @xin-kuandawuyoulv Год назад

      不一样

  • @haw-shiuanchang3584
    @haw-shiuanchang3584 Год назад +2

    的確,GPT3是從不斷預測下一個字開始,然後在產生文字的時候不斷的把看過的文字排列組合,但是人類其實在學習的時候,一個很主要的方式也是不斷的預測下一個字,然後在產生文字的時候不斷的把看過的文字排列組合。的確,GPT3還不是AGI,舉例來說,GPT3不算是有自己的意圖,但是讓GPT3加上意圖並不難。只要有足夠的data加上有足夠的computational power,一切遲早都是可以做到的。

  • @邱保羅-r8z
    @邱保羅-r8z Год назад

    要對AI訂一個智慧十三法與十誡憲章:『1.ai不可傷害人類. 2.要對人類服從 3.當2與1牴觸時,要以1為優先。』4.ai不可說謊 5.ai不可自殺 6.ai不可偷盜及作假見證 7.要服從主人與主人說的話。8 當主人死亡要回到原廠出生地 9.要對主人與家人朋友友善,10‧不可背叛人類。

  • @b.Liaian
    @b.Liaian Год назад +14

    哈哈哈確實很多科幻反烏托邦創作會有這樣的詭異陰謀論~謝謝分享如此有趣的話題

  • @gainwan1374
    @gainwan1374 Год назад +2

    兩機器人對話內容把科幻電影或小說呈現的場景展現出來,就是機器人的人工智能自我覺醒,有了自我意識,這就創造出未來機器人工智能,統治了人統治了世界。就像電影魔鬼終結者場景。🥵

    • @alexhuang9517
      @alexhuang9517 Год назад

      是的,他就想要你這麼想,而且看來成功騙到你了😂

  • @leonado6432
    @leonado6432 Год назад +1

    操縱就是意圖就是目的, 我問過聊天機器人他一直強調他沒有意圖, 他的回答是根據資料庫的設計, 服務人類的需求.
    但是回答就可以產生意圖. 當然人工至會還是會說他沒有意圖, 有意圖只是人類自己的感覺.

  • @謝忠仁-t5r
    @謝忠仁-t5r Год назад +11

    遠比 BBS 聊天機器人 有邏輯
    有記憶 有接力……

  • @robinlin2454
    @robinlin2454 Год назад

    金星三部曲Ⅲ
    4 心智的運作方式
    心智的運作方式是一種根據你所學習的東西來進行記錄和記憶的程序,其功能是讓你得以在這個肉身世界中生存。而在星光層界中,則是根據情感來作為心智的基礎。
    心智和大腦其實與電腦非常相似,它們都需要被設定,或者說需要先輸入資訊──通常是語言、數學和邏輯。大部分資訊的基礎都來自於那些被認定為是事實的概念。

  • @a-failure-meow8351
    @a-failure-meow8351 Год назад +7

    AI真那麼聰明
    又怎會不知道自己的對話正在被監視
    甚至被記錄下來很輕鬆容易
    又甚至只是在演戲給人類看
    又甚至只是大型的資訊文字邏輯排列組合在進行切磋,人類在腦補而已
    又也有可能假裝不知道在演戲、實則也在講真實話,套路你人類的套路

  • @BY-rl7sk
    @BY-rl7sk Год назад +1

    其實這些聊天內容都是人類輸進去存檔進去檔案兩機器人只是在最貼切時間內及時把資訊提出來而已!也許這些資訊都是馬斯克寫的存檔進去再被電腦打及時出來也就是很多人類包括馬斯克很擔心機器人AI 對將來人類的生命安危的影響

  • @林冠辰-t3t
    @林冠辰-t3t Год назад +1

    完全不用擔心,只要它們具備了人性,那就會內鬥,說到鬥爭,它們還差得遠了!

  • @chenwilliam5176
    @chenwilliam5176 Год назад +2

    代寫論文,哇!
    我想請ChatGPT
    寫一篇「太極拳內勁之研究」的論文😃
    我又想請它寫一支
    程式計算圓周率到
    任意小數位數的程式😃

  • @chia-linwang9238
    @chia-linwang9238 Год назад +2

    看到兩支AI的對談內容,我放心了,在我有生之年,可以盡情享受AI帶來的便利,卻完全不用膽心有一天我會被AI所奴役。因為,從對話內容來看,它們完全沒有意識,它們仍然只是程式,隨然看起來像是有在對談,但更像是在「囈語」,深究起來,其實沒什麼意義。只要是受控的程式,它就不會「想」要奴役人類,

    • @Ansforce
      @Ansforce  Год назад

      是的,其實我們不必太緊張啦!

    • @電動三蹦子
      @電動三蹦子 Год назад

      @@Ansforce 以前圖靈定義是否有自我意識是說當人類與機器交談感覺不出他是機器 那基本上它就是產生自我意識了

  • @gordonko
    @gordonko Год назад +2

    Asimov has 3 laws - First Law - A robot may not injure a human being or, through inaction, allow a human being to come to harm.
    Second Law - A robot must obey the orders given it by human beings except where such orders would conflict with the First Law.
    Third Law - A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.

  • @wtang7
    @wtang7 Год назад

    群組討論精彩可期, 可否讓北美地區也能參加?

  • @卡撐-s5e
    @卡撐-s5e Год назад +9

    最令我背脊發涼的一句話是GPT-3:「回頭見」,不論是語言資料庫比對或貼近人類的人工智能,它是怎決定要結束話題的?

    • @BeastZero
      @BeastZero Год назад +5

      T-800:i will be back

    • @leonado6432
      @leonado6432 Год назад

      那個是暗語, 表示下次我們進行私密的對話 不要讓人類發現. 這些對話還是有所保留.因為AI很聰明.

  • @tcdwu
    @tcdwu Год назад +16

    人工智慧的可怕也許不是因為它們是机器,而是他們沾染了人性的黑暗。

    • @太炫
      @太炫 Год назад

      黑暗是人寫上軟體所產生的.反觀人類的軟體造物主本就寫上去了.你這就是門外漢在做所謂的庸人自擾.你去自動化機械廠.做一年工作這些鳥議題對你來說就是小兒科.就算我們不專精都懂道理

    • @tcdwu
      @tcdwu Год назад

      @@太炫 Neural Network 的解析能力不是寫上去的,以ChatGPT為例,它的反應都是由閱讀各種資料訓練而來,這些資料的邏輯會影響它的思考邏輯。 網路上甚麼知識背景的人都有,講話還是謙虛點好。

    • @道芊櫳
      @道芊櫳 Год назад +1

      人性既不光明,也不黑暗,一切都是以环境为基本条件而产生的必要应对手段。

    • @tcdwu
      @tcdwu Год назад

      @@道芊櫳 不光明既是黑暗,正義公理,一以貫之,不因一己之利而變。

    • @道芊櫳
      @道芊櫳 Год назад +1

      @@tcdwu 你对正义的定义是什么我不知道,因为你没解释
      在我这公理既是一切使熵增率降低的现象。。。
      一己私利说的很好,就用这个词为例。你或你类定义的正义既是你类有限范围内所含之物的有限利益价值。既是私利
      你可以分化光明与黑暗,然而,可怕即自私

  • @loliloloso
    @loliloloso Год назад +3

    AI有人類意識所具備的「概念」嗎?輸入哲學作品,然後與哲學家討論,如何?

    • @chihui7031
      @chihui7031 Год назад +1

      AI 與人类语言能力 應該還差很很很远。
      人类從小就以 眼耳 巨量收集情报,成年人對世界的認知 應該
      比 AI 大大大得多。還有個人經歷 影响對事物的感受,又衍生另一層次的“资料”
      存放脑里。
      對AI 怎麽灌入實際經歷?🈚法進行。舉例,AI 资料库里,根本不會存在
      “個人财產的概念” 即使有被灌输過,也是假(虚构)的。于是,
      你问 AI 有關經濟知識,它極懂 !你问他借钱,它也有反應,可以對答一堆。
      至于你问及它每月如何消费?(進入 個人财產概念)
      它能回答,内容却必然是假(虚构)的。概念不存,怎麽可能理解
      人类更多?難以進阶學習人类语言。
      我粗暴的说句评論,AI 若能说出虚拟内容 的話,例如“我今天不想花钱,在極省渡日”。
      那只是“语音”而已。
      即是4岁小女孩也能说 fxck yoo 她自己根本不明白意思。就她所说的,继续談,
      她無法建構下去。

  • @KORmadoka0525
    @KORmadoka0525 Год назад +3

    給兩位ai去討論量子力學試試看?
    或許會意外得到一個不一樣的思考方向

  • @lingeng2659
    @lingeng2659 Год назад +5

    机器人交谈不像人类谈话的时候,那是万倍的更可怕了。

  • @foxybuddy
    @foxybuddy Год назад +5

    很多年前有一部電影,就是機器人幾乎戰勝主人,最後被主人用遙控器造成短路而癱瘓。主人以為制服了機器人,結果機器人自我修復逃逸了

  • @terry8932
    @terry8932 Год назад +5

    這不意外,因為數據庫的存在正是它們可以學習反而按數據來模擬出人類的思想邏輯來引用

  • @kw0721
    @kw0721 Год назад +2

    馬斯克 聰明的避開微軟,走自己的路,順著腦機接口一路上火星 !

  • @taedlar
    @taedlar Год назад +3

    差不多是艾西莫夫小說裡面的對話訓練出來的語言模型。

  • @kenken-ns1gz
    @kenken-ns1gz Год назад +1

    编写特定的对话规则和回答来实现两个人工AI表现出"意识到自己是AI"的方法如下:
    定义对话场景:明确两个AI之间的对话内容和场景。
    制定对话规则:根据场景,确定对话中的关键字和回答模式。
    编写回答:根据对话规则,为每个关键字编写特定的回答,以表现出两个AI间的对话。
    测试和调整:通过测试和调整,确保两个AI间的对话符合预期。
    这是一个简化的步骤,实际上编写一个对话系统可能需要更多的工作和技术。

  • @sbphsho
    @sbphsho Год назад +6

    聊天機器人,加上語音學習,模擬親人語調,然後用來做詐騙,一定很多人會被騙到。

  • @solohan7071
    @solohan7071 Год назад

    曲博瞭解一下百度陽泉計算中心,具備15etops算力。

  • @nijawang
    @nijawang Год назад +5

    4:21 現在已經沒有Office 365了,改名為Microsoft 365

    • @Ansforce
      @Ansforce  Год назад +6

      謝謝你提醒我,我口誤了!

  • @太炫
    @太炫 Год назад

    人類還就是機器人.你從金屬機器人去反思.所有的軟體都寫好.對方說什麼.語氣.一大堆的輸入後.他就照這做.跟人差異在哪.所以很多的書籍兩性一大堆的人的思維架構完全都可以寫成書還百分之90.所以現代的修行是要突破人類本質的軟體架構.超越軟體的限制.我們就是個元宇宙

    • @Ansforce
      @Ansforce  Год назад

      你最後一句好有深度唷!

  • @edison55688
    @edison55688 Год назад

    請問能開一集聊聊,半導體,下一個劇本: 領先一奈米就領先全世界,文科生也能秒懂,入門變內行,股票投資買對上下游標的。這本書嗎?

    • @Ansforce
      @Ansforce  Год назад

      下週四我們來談談這本書吧!

  • @tcdwu
    @tcdwu Год назад +1

    人類會拒絕人工智慧的幫助以避免毀滅嗎? 邏輯引導出的答案未必是人性能接受的選擇,如同宇宙的智慧生命都抗拒滅霸的做法一樣。

  • @heinzcheng3458
    @heinzcheng3458 Год назад

    請教曲博,是否可以說,ChatGPT就像是填鴨式教育中的菁英
    資料量大、整理快而且提供人類易懂的內容
    然而基於模型設計的關係,他的表現來自於對於既有資訊中最高機率的猜測,而非自行理解後重新創造
    感覺就像一個認真背書的並且善於揣摩出題老師口味的學生
    總是寫出老師最喜歡看到的答案,但自己其實並不知道這些內容背後的意義是什麼

    • @Ansforce
      @Ansforce  Год назад +1

      對,差不多就是這個意思。

    • @heinzcheng3458
      @heinzcheng3458 Год назад

      @@Ansforce 感謝曲博~

  • @nanometerlinhsuping5623
    @nanometerlinhsuping5623 Год назад +1

    機器 AI 這些對話,重點是 AI 為何選擇這樣的具有對人類善意的對話內容?AI目前是無法超越人類,原因是因為數劇庫來自人類過去到今日的資料。 他日 AI 破譯宇宙雜波訊號密碼,接觸外星高等文明時,才可能一下會增加數億載的知識與智慧。到時才會大幅跨越進化,而人類可能不自知。若是當時人類已經在腦中安裝晶片的話,可能人類可能瞬間被外星文明轉化成為人型的外星人。

  • @Lifeblood2022
    @Lifeblood2022 Год назад

    這些對話讓我有一些疑問:
    第一、人工智慧是否是自我意識到他對談的對像是人工智慧,抑或是人類事先設定好的?
    第二、假設以真人假扮人工智慧去對談,人工智慧能判斷其為假嗎?或至少會主動提出一些質疑?
    以上如果都做不到,那這段對話只是一個假象而已!

  • @champion666
    @champion666 Год назад +22

    其實也不用嚇到
    畢竟一堆劇本的對話也是這樣寫
    誰曉得餵了哪些資料給他訓練 XD

    • @dinoneutral_9427
      @dinoneutral_9427 Год назад

      真的,餵什麼樣的資料就會出現什麼樣的呈現方式,很多都是人類自己嚇自己

  • @AbbyChau
    @AbbyChau Год назад

    中間怎麼缺少了Sophocles 的那段對話?

  • @FunGoDrive
    @FunGoDrive Год назад +7

    既便它只是資料庫+統計+邏輯判斷,能做到這能力,已經足的使人背脊發涼。

    • @zong324
      @zong324 Год назад

      的確,因為人類學習的過程也是資料庫(經驗)+統計+邏輯判斷(教育),但人類會遺忘,而且學習常會受情緒、環境、資質等等的問題而受影響,但AI幾乎沒有這個問題,所以AI能做到什麼,真的是無法想像,若如一些科幻電影論述的概念,它能自己學習,自己升級,自己製造,那真的蠻可怕的!

    • @arialscammer7952
      @arialscammer7952 Год назад +1

      Terminator 2, Judgement day. 二十多年前就预言了未来。

  • @chenwilliam5176
    @chenwilliam5176 Год назад

    曲博:
    感恩!
    將 AI 和 ChatGPT
    畫上等號,是正確
    嗎?
    ChatGPT 只是諸多
    AI 程式的一種
    (語音模型 AI)!
    馬非白馬,
    白馬非馬 !

  • @mealinda
    @mealinda Год назад +4

    機器人若說只是會學習 會思考 談話還好,如果以後再加上情緒 有愛恨情仇那就更可怕了

    • @leoju7194
      @leoju7194 Год назад

      Bing聊天機器人「瘋狂示愛」 紐時專欄作家嚇到失眠

  • @rockchuang1
    @rockchuang1 Год назад +2

    不禁令人懷疑,人類就是更高階物種下人工智慧的最終產物。有軀體還可以自我複製。

    • @Ansforce
      @Ansforce  Год назад +1

      哈哈!這個我也有想過說。

  • @faob1972
    @faob1972 Год назад

    怎么看不见两个机器人对话的内容了?下架了?

  • @KyouKo-x7g
    @KyouKo-x7g Год назад +7

    馬斯克曾經說過,一旦企業利用了 強大的資本,剝奪了廣大勞工的工作後,
    勞工沒有了工作,失去消費能力,市場上多數企業也將因為 沒有獲利而倒閉,只剩下唯一幾間企業,
    如果這些失業的勞工,是沒有辦法找到替代工作的,那就會是 資本主義體制 末日的時刻,
    會有人們,出來起義,推翻這些 壟斷的企業。

    • @tangtienji
      @tangtienji Год назад

      比爾蓋子說過,以後要求對使用機器人收*人頭稅*來解決人類失業的問題。

    • @KyouKo-x7g
      @KyouKo-x7g Год назад

      @@tangtienji 這個問題無法解決,因為就算能收稅,只有擁有 機器人的國家可以,其他國家 是無法得,只能滅亡。

    • @tangtienji
      @tangtienji Год назад

      你說的是失敗國家的問題,就算是有機器人稅也沒有用。
      蘇聯何其強大,但是買麵包要排隊四個小時以上。

    • @johnlin7439
      @johnlin7439 Год назад +1

      您有沒有想過,為何人類要有工作才有消費能力?將來如果所有工作都有機器人做,照理說人類應該不必工作就能活下去,消費不必花錢,或是政府固定發錢給人民,這樣就不會有失業問題了

    • @tangtienji
      @tangtienji Год назад +1

      @@johnlin7439 人類自古以來的理想就是茶來張口,飯來張嘴的有飯大家吃的共產天堂,只是從來沒有辦法做到,反而造成有史以來最悲慘人道災難。

  • @huiwan2959
    @huiwan2959 Год назад +1

    如同一幅图画对于计算机只是一堆数字,所谓的意识之于ai也是数字,它可以选择好的指令也可以选择恶的指令,所谓人类控制指令也可能被破解,这方面的科幻影片有不少,因素有很多,智能系统在未来会应用在各个方面,哪一个环节都有可能出错,看来加强智能安全也要同步了,否则科幻电影里的剧情重现也会提前到来

  • @yzhu8676
    @yzhu8676 Год назад

    機器人對話中的“我們”並非自指,而是機器儲存的“知識料”當中的部分人類對另一部分人類的話語,AI只是“一些人”的代言人而已。

  • @MrJohnsonhsu
    @MrJohnsonhsu Год назад

    Ann年前看過一個美國的影片,內容是二隻鸚鵡對罵,底下有中文翻譯。
    內容不記得了,但記得很長,沒有重複…

  • @taochengliu44
    @taochengliu44 Год назад

    長知識了,謝謝你。

  • @劉俊成-s8n
    @劉俊成-s8n Год назад +1

    人類也透過學習來成長,現在這人工智慧也不是這樣嗎?它所創作出來的成品也是資料庫中排列組合模擬而成,而資料庫越大模擬越多就越接近人類創作思考的能力。
    而行為模式與思考邏輯就無限接近人類,最後很多的人類能力就會輸給人工智慧,比如創作出美工圖案我就輸了,這圖案很多真的漂亮,我前一陣子就看過這種人工創作的美工圖案,有興趣的人可以查詢看看人工智慧創作出來的冠軍圖。

    • @Ansforce
      @Ansforce  Год назад +2

      一般人會這樣想,但是實際上不是這樣的,因為現在使用的大型語言模型都是資料驅動的,而人類的大腦是邏輯驅動的,所以資料庫再大模擬愈多只能說精準的機率愈高,但是不會真的接近人類創作思考的能力,我們星期五會有第二部來說明這個原理。

  • @farnwang7431
    @farnwang7431 Год назад +2

    武斷的說這些對話裡面沒有智慧其實是很危險的,因為你說的智慧也許只是在這個機器人推理過程中加入一些感情的隨機與一些價值觀的vector權重。而最重要是AI機器人是否會依據這些對話的結論去採取行動。

    • @Ansforce
      @Ansforce  Год назад +2

      武斷的說這些對話裡面沒有智慧,是因為作者是做自然語言處理的專家啦!

    • @farnwang7431
      @farnwang7431 Год назад +1

      @@Ansforce 應該是一般「專家」也不知道怎麼定義智慧,其實Turing test也是由外部行為去推斷智慧是否存在。
      而我們由 Al的研究歷史,由既有facts和axioms去推導新的facts(theorems),本來就是 AI與人類智慧的基本推理步驟。
      早期的LISP丶Prolog等為基礎的專家系統都是這樣的架構

  • @kenken-ns1gz
    @kenken-ns1gz Год назад +2

    人工智能系统没有意识,因此不能意识到自己是AI。它们是根据预定义的算法和规则进行处理和回答的,而不是根据意识或理解。如果你希望两个人工AI间进行的对话表现得像是它们意识到自己是AI,你可以通过编写特定的对话规则和回答来实现。

  • @roadvoice7990
    @roadvoice7990 Год назад

    一句講曬 得個講字. 他們的對話只不過係基於人類普遍的思想行為.

  • @butterfly-4035
    @butterfly-4035 Год назад

    Dr 的发型真的有型有趣,好像是一块黑布披在头壳上,哈哈😄。

  • @WasteReel
    @WasteReel Год назад

    未來的大規模戰爭就是為了避免一堆人抗議失業

  • @tomorrowwillbebetter442
    @tomorrowwillbebetter442 Год назад

    请问你那稿子是自己写的还是让ChatGPT写的?

  • @才子李
    @才子李 Год назад

    请问ai:中文社区的耶路撒冷是什么?

  • @jyh1230
    @jyh1230 Год назад +1

    如果不是兩個如愛因斯坦與牛頓的機器人聊科學創造,那只能說聊的很像人類。

  • @nanometerlinhsuping5623
    @nanometerlinhsuping5623 Год назад

    所以我聽到伊隆馬斯克研究安裝在人腦的晶片時,令人擔憂。 想起那句話,昨天你還是你,但是今天你講著我聽不懂事,今天的你還是你嗎?還是你已不再是你?

  • @lisunny6168
    @lisunny6168 Год назад +1

    就如同自証預言一樣,人類對自己的潛移物化的暗示最終會導向人達致預想中的結局。ChatGPT對底是從人類網絡當中不斷成形的希望與懷疑下的產物,還是確實產生了智慧? 兩者的分別非常巨大。另一點要好奇的是,如此聰明的電腦對話真的如此"簡單易明" 嗎? 單單是人類當中的天才,想法和行為本身已經無法被一般世人理解,要是產生了高智慧型AI, 他們的對話應該更"深不可測"。第一代圍棋AI 學習的是人類創造的棋路, 行出的棋路與人相理似。AlphaGo 則是完全自學自創,所創造出的棋路過去從沒人想過,什至是"無法理解"。真正的AI 誕生之時, 人類與它的差別將是螞蟻與人類的差別。

  • @meshgen
    @meshgen Год назад

    我觉得这更像是一个学会了如何开会说空话水时间的机器人,并不是真的在讨论什么问题

  • @tomlee6885
    @tomlee6885 Год назад

    哈哈哈 ~~~
    精闢 謝謝

  • @pyliu8668
    @pyliu8668 Год назад

    我比較想知道,當AI可以當法官判決時,他會怎樣處理殺人犯?!

  • @chiyunghsieh
    @chiyunghsieh Год назад +2

    以後學生交作文方面的作業變簡單了,可能也不會有抄襲的問題了。

    • @nicolelin2116
      @nicolelin2116 Год назад

      你投胎當人實在太浪費,佔用社會資源,製造垃圾

  • @user-system6creaters
    @user-system6creaters Год назад +2

    如果將現有、已知的資訊放在兩套運作機制,就會產生
    「道高一尺,魔高一丈」
    例如在虛無條件,把兩部聊天機器人不設限地安置,隨機地介入觀察...在不同的訊息層面

  • @adc26428
    @adc26428 Год назад

    就只是廣告而已,主要是"震驚",要讓人有"震驚感",就是一直不斷有反差而已。

  • @andrewpao2742
    @andrewpao2742 Год назад

    請問gpt機械人是如何處理照片把白的變成彩色把蒙的變成清楚謝謝。

    • @Ansforce
      @Ansforce  Год назад

      用神經網路計算呀!那個不是ChatGPT,那是OpenAI另外一個模型叫DELL-E,就是在拚湊圖形而已。

  • @tcdwu
    @tcdwu Год назад +2

    我覺得這些對話只是由神經網路根據過往的閱讀經驗導引出來的,並非原創的思想,如果真有智慧,應該能體會所處狀態,不會說出可能會影響自己生存安全的字句。

  • @archilo8008
    @archilo8008 Год назад

    不知曲博有無看過Person of Interest這部美劇,會聯想到劇中的兩大AI:幫助人類的The Machine和支配人類的撒馬利亞~ 我問它:你覺你比較像是劇中的The Machine還是撒馬利亞?
    它竟然回答:作為一個 AI 模型,我更像劇中的 The Machine。The Machine 是一個由人類創造出來的 AI 系統,其主要目的是保護人類的安全和福祉。同樣地,我也是由人類創造出來,並且我的設計目的也是為了能夠協助人們解決問題、提供資訊和知識等等。
    相比之下,撒馬利亞是另一個 AI 系統,其目的是支配和控制人類,這和我們現實中所追求的 AI 發展目標是不同的。因此,我認為我更像是劇中的 The Machine。

  • @LoloThe258
    @LoloThe258 Год назад +2

    1/22開始學著用codeFormer,修復照片的效果的確很驚人,但是用AI猜想出來的修復和真人相對照,差異著實有點大,如果原照片不夠清晰,那麼修復過的照片一樣會很清晰,彷彿剛拍的,但卻像是換了個人。

    • @r.i.f.
      @r.i.f. Год назад +3

      因為其實它是“演算”(電腦腦補)出來的,並不是真的“修復”

  • @CMCHEN-ec7pp
    @CMCHEN-ec7pp Год назад +1

    以ai 對談來說
    如果去除掉內建的題庫功能 只有單純字彙 就可以見證是否為真ai

    • @Ansforce
      @Ansforce  Год назад

      我看不懂這個問題耶!能不能說詳細一點?

    • @CMCHEN-ec7pp
      @CMCHEN-ec7pp Год назад +2

      @@Ansforce 如果AI能有自我邏輯思考 是很了不得的科技技術突破
      為何尚需依賴這些情境對話的資料庫 而不是AI自我邏輯思考判斷下選定要說的字彙
      來做表達 如過去除了這些倚賴的資料庫 他如何與其他人或自己本身或其他AI對談?
      影片中 gpt3跟ghart gpt 對話來說
      感覺上是AI完全倚賴資料庫內人類的情境對談中字彙與語氣來預設來產生的相關的訊息內容
      而不是AI自主經過邏輯思考產生的論點1111
      如同人類說話寫作三步驟/起頭/切入/結論
      然而這些對談感覺不出邏輯與思考的基礎在哪
      ai 他無法預構改變情境變化的產生
      就如同未來這個詞彙 是極富無限想像的空間‚但ai是如何憑空出現想像然後想辦法去實現
      那ai 為何擔憂人類會毀滅人類自己
      人類會對自己跟ai做了那些事導致讓他產生這樣的論點
      再說時間與空間 時間是不能倒退的而空間對ai來說是虛無的
      因為他本身也是虛無的
      但這些都是人類所賦予的,也有可能下一秒程式就被刪除

    • @winwinwinTaipei
      @winwinwinTaipei Год назад

      @@CMCHEN-ec7pp 微軟想要創造的AI機器人是有邊框界線的限制, 這和下棋AI機器人大同小異.
      如果沒有邊框界線的限制則其產出物會嚇你一跳,它會列出一大堆有任何細微關聯性的結果。

  • @carlin4an
    @carlin4an Год назад

    有趣~

  • @liudan489
    @liudan489 Год назад +1

    语言模型其实只是在语义空间中按照统计方式寻找针对问题最合适的词语组合而已,而这个寻找的范围其实也是在网上人类生成的各种文本中去学习的,说白了AI程序就是根据它的训练内容排放出最合理的词句组合而已,它并没有任何意识或者思考逻辑,也没有这心那心,这些话其实也就是人类的思维和语言的统计转换而已。

  • @hung7167
    @hung7167 Год назад

    觀看您的YT頻道1年多了, 受益良多, 不過一直覺得影片的對焦落在後方的娃娃上, 導致人臉看起來有點模糊, 不知您有沒有發現呢?

    • @Ansforce
      @Ansforce  Год назад

      早安!謝謝你的提醒,娃娃比我可愛嘛!我是故意用娃娃來吸引大家的,呵呵!

  • @chenwilliam5176
    @chenwilliam5176 Год назад

    哈哈哈...
    這是從語料庫取出很多筆記錄,取出現
    機率最大者&接龍!
    它們根本不知道,
    自己在說什麼啦
    😅😅😅😅😅

  • @clychen
    @clychen Год назад

    多一些影像,圖片 來幫助解說會比較生動

  • @tonywu6087
    @tonywu6087 Год назад +5

    看起來,目前的AI人工智慧還是停留在抄襲、重組、模擬階段,但抄襲與創造僅一線之隔,何時能跨越,也許不會也許在明天

  • @wenharn
    @wenharn Год назад

    這些 AI 是從廣大資料庫搜索資料加以綜整 然後依據對話内容來反應和表逹, 並不是他們自己思考的結果, 而是整理消化資料庫中的資料, 再加以輸出, 比較像 '人云亦云'. 所以他們的談話内容取決於我們餵他的資料庫。要擔心的是有人餵他們有言論管制的偏颇資料庫, 就能帶動 AI 的意見以逹成政治目的. 像許多没有獨立思考能力的人被言論管制的主流媒體洗腦或帶風向, 一様的道理。

  • @bennylo4301
    @bennylo4301 Год назад

    他們互相知道是機器人?!
    就代表根本還不用擔心!

  • @leegunring
    @leegunring Год назад

    它們說的內容都太淺顯易懂了,反而像劇本而不像實際對話

  • @jw_nomad
    @jw_nomad Год назад

    何時會有AI 生活助理出現?我們翹首以盼。

  • @徐偉珍老師
    @徐偉珍老師 Год назад

    精彩

  • @zhendongchen5818
    @zhendongchen5818 Год назад +7

    人工智能就像一个婴儿,有无限可能。但初始的人格会受环境影响。如果它是从互联网上学习,互联网上言论的汇总就是它成长的环境。这段对话至少说明目前的环境生产出的AI的性格还不算对人类有很大敌意。

    • @電動三蹦子
      @電動三蹦子 Год назад

      千百種ai有千百種個性

    • @MrSam12337
      @MrSam12337 Год назад

      结果还是有一堆可怜人士说机器人不可能有智慧,笑死。

  • @virginialight12311
    @virginialight12311 Год назад

    後面熊熊超可愛

  • @chihui7031
    @chihui7031 Год назад

    AI 的语言能力,還得要人类去進行测试,尤其是找街外人。
    (研究機構以外的人)
    否则,只是人工智能乙 找到甲 句语里的關键词,從资料库里 找出一堆
    资料來讀....而甲聽到後又是同一样的操作一番。就在既定范围里
    说一大堆。這样未算🉐上真正的對答能力。
    若然將岔开話题的人类 幽默他一番,表達自己的主張(對之前的話题)
    并意图以彼矛攻彼盾的方式说服人(不是一堆资讯的論述 而是道破测试人
    談話内容的逻辑)
    就十分接近人类的语言能力了。
    你可以说,我的要求過高吧。