Размер видео: 1280 X 720853 X 480640 X 360
Показать панель управления
Автовоспроизведение
Автоповтор
每次看曲博的節目都獲利良多,在芸芸眾生中有時候一語驚醒或撥亂反正,感謝。
謝謝你的支持!
文傑兄講話聽起來很順暢舒服,謝謝分享~
感謝曲教授繼續專訪各界專家探討與破解Chat Gpt
兩個聰明的人的對話 讚喔!
我非常喜欢这一期,加深了对chatgpt的感性了解。
規則與統計兩者缺一不可,重點在於兩者如何配搭。如果規則明確,應選擇規則,規則也是人的本性。如今一窩蜂由統計下手,未必符合公司企業要求。卓騰科技由規則走起,再佐以統計協助,應該是條正確方向。
個人感受是,Chat GPT在給出事實的能力意外地很差,但在揣摩與潤飾上下文的語言能力卻意外地很強,強到很不可思議的地步,雖然是說AI自己目前並沒有讀懂任何他接收與產出自己文字的能力,但毫無矛盾瑕疵的流暢度、甚至是在我們人類端看起來根本是具有理解力與創造力,讓人非常驚嘆
也許是有一部分的理解和創造的能力了吧? 只是它的身體是機殼,人類大部分是蛋白質和鈣質組成,好像沒有差太多😂😂
啊啊啊
@@MarsBunBun2026 沒有理解這東西,去了解就會知道只是很深入的文字組合而已,組合多到你以為他有理解
其實跟人類非常接近了,很多人也是一張嘴胡瑞瑞,聽的人也信以為真。
@@LuVincent 跟人類相差很遠,一個是透過思考給出的答案,一個完全是大數據。
文科很強的人面對艱深的數理不ㄧ定強反而普遍偏弱,或者面對抽象的創作也不一定強因為在大腦中運用的神經網路路徑不同,語言模型只是AI的一部分,兩者結合產生更多運用的可能性;當海量需求的特性被打開後,更多的研發資源會強力投入縮短升級的時間,20年後的AI咨詢機器人應該會以顧問或導師的身份出現。
感謝,了解很多原理
這間公司走對市場,加油.
有在follow的兩位同台❤ 見解很精闢
潤飾文章能力很強用AI讓英文進步我覺得感受的到
❤
語言,真的和邏輯和數學有關係,特別是學到syntax
非常感謝倆位老師的教導!
曲博好!!最近車用相關的二極體、MOSFET、IGBT、SIC又開始有很多話題希望可以有相關的影片解說一下!! 謝謝
所以先運用對話求同,得到海量問題就可以累積海量數據資料庫,再運用這些資料分類製作所需程式語言方向,很聰明。期待未來能夠出現有深度對話表達智慧的AI,可以更幫助人類生活。❤
Amazing 🤓Multi - Dimensional Distribution ❤
一天,一個人走進一家商店,看到標價牌上寫著"大特價,買一送一!",於是他拿了一瓶餐具清潔劑,想要享受買一送一的優惠。當他拿到收銀機前結帳時,收銀員告訴他:"對不起,這個商品不包含在買一送一的活動中。"😢
好清楚的解釋
2:15 監督"式"學習
完全同意sandman😅ChatGPT 輸出的自然語言,Excellent!鸚鵡講人話,發音可能比某些人標準,但是牠完全不知道自己在講什麼😃然而,我們以為牠知道牠在講什麼😃
如果鸚鵡能摘要文章,我會認真重新審視鸚鵡。
@@مظفرجنگ这一定是未来了,不过问题应该是这鹦鹉怎么受控而已
11:45 講到竉物石頭,我就想到以前我還打算做一個美少女模型,眼睛特別設計過,真的可以一直注視著你。原本想真的印出來,但廠商報價印一個要一兩萬,想想算了XD。這件事塵封一段時間了,今天看到曲博的談話,突然又想起曾經有這麼一回事,我覺得我的心態和那個小朋友其實是一樣的XD
@@Lei_Cheng 你可以讓她背對著你,或是印一個固定眼睛或閉眼的版本
ChatGPT跟老婆一樣錯的都能說成是對的,只差在指責ChatGPT說錯時,它不會因此生氣,讓你沒晚餐吃。
老婆永遠是對的❤️
計算机NLP是靠'文字'-代碼轉換分析,文化即是种族邏輯。文字的”多”意,使計算机無法[推論]…,如簡字的'干'可為-乾、幹、干。正式較嚴謹。
個人到現在還是不能理解這些GPT到底怎麼訓練怎麼使用語言,雖然語言是我們每天都要使用的工具,而且人類使用語言至少有上萬年的歷史,但是我想應該很少有人想過,為什麼語言(文字符號及所有其他象徵物)可以傳達意思、溝通想法?這些聲波、扭扭區區的形狀,裡面有我們想要表達的想法和意義嗎?溝通的過程是,我把我的意思講出來變成聲音,然後一串帶著意思的聲波被你聽到,你就得到了我要告訴你的意思,然後再回傳你的意思給我嗎?如果是這樣,可能事情會簡單很多吧,因為載體和意義是一起存在的,所以就算不知道意義,載體用久了,慢慢也有機會了解意義。但是實際的情況卻是,不管是聲音或文字或其他任何東西,都只有它們自然的屬性,而不具有任何我們想要傳達的意義,在我們每個人的小黑盒之外,就是一個沒有絲毫想法、意義、可理解事物的純粹機械的物理的世界。我們把要傳達的意義,變成聲音或其他文字符號象徵物時,其實只是在各自的小黑盒裡面進行了轉碼,我就是ㄨㄛˇ的聲音,然後聲音傳送出去,你接收到了沒有帶著任何意義,只有編碼的聲音,聽了ㄨㄛˇ的聲音後,從你的小黑盒子裡面重新生出了ㄨㄛˇ的意義「我」,以下類推。所以整個看似豐富的影片其實是沒有包含意義的聲音和影像,是觀眾聽到了「將來到處都是反事實的文章」這樣的聲波後,才自行重新生出了「將來到處都是反事實的文章」這句話的意義,然後再去理解。這也是為什麼,數學語言可以精確無誤,因為數學語言在公理底下嚴格規定每個符號只有其本身的意義,電腦可以完全複製文字,傳到另一台電腦,再重制出來,但是這其中沒有任何意義,只有編碼。以上都可以完全精確不容易有誤差,偏偏就是自然語言充滿奇怪的誤差,就算面對面溝通講了很久也可能雞同鴨講,就是因為對方傳過來的我們接收的都只有不包含意義的編碼,意義都是人們各自在小黑盒中生出來的,而沒有人知道我們的小黑盒到底相差多少,我想有些話不投機的人,小黑盒應該是幾乎無法重現對方的意思吧,另一些比較有默契的,小黑盒生出的意義可能就很相像。了解語言文字符號各種象徵物跟意義的關係後,訓練AI這件事情也就變得很迷惑,因為我們拿去給AI的資料庫,不管包含了什麼,大文豪的創作或小情侶打情罵俏,只有一堆編碼文字,其中沒有包含意義,兔逼OR NOT兔逼的意義是我們在小黑盒重新生成的。既然如此,AI到底從這堆不包含意義的編碼中學習到什麼呢?首先,它們就算會回答,也一定不知道回答了什麼,因為這些回答根本沒有包含意義,我們以為AI有意識,都是我們自己生成的想法,儘管AI講的東西沒有任何意義,我們卻可以重新生出意義來,於是有點像是隨機性的自言自語,我們講一句,計算後得到一句不包含意義的回答,我們自行生成了回答的意義,並且想好下一句說出,計算後得到另一句不包含意義的回答......。這也是為什麼說GPT有意識是不太可能的,因為我們給的東西根本不包含意義,要如何讓AI生出意識之類更複雜的結構呢?而我們最頭大的應該是,我們到現在還搞不清楚,平常溝通思考的這些可以轉碼成語言文字符號象徵物的意義,也可以從語言文字符號象徵物重新生出的意義,甚至可以不依靠語言文字符號象徵物依然可以在小黑盒裡面活動思考的意義,到底是來自哪裡?到底是什麼東西?
現階段AI只做為常識人的存在。下階段就是分LevelLevel 水電工 code name 田小班Level 藝術家 code name 金雍Level 說謊者 code name 愛迪生Level 學研者 code name 那些小孩Level 海豹 code name 吉爾Level 阿斯拉達 code name 隼人
「美國的第一個黑人總統是黑人還是白人?」當GPT答錯時,人們說:你看這明證GPT根本不懂自然語言。的確目前很少人會說gpt真懂自然語言,但我猜想,同樣問題問一學說話的小孩,小孩也可能答錯。小孩不懂得從問句自身抽取答案,並不意味著這孩子一輩子不可能學會語言。批評它目前不懂自然語言,批評是正確的,但不意味著整個發展方向都錯了。至於提到「人是透過思考因果關係來理解世界」(但GPT不是),我的想法是,人類是經由視聽味嗅觸五官與外在世界互動,並將經驗歸納形塑出因果關係,但gpt的學習材料目前只有文本與圖片資料,兩者的學習方式材料過程都不同,導致兩者有許多差異,但這不等同於gpt的學習純然只是假會。以上為外行人幼稚猜想,還請指導批評。
人的思想是奇怪的 当你觉得不好的事情 最后你还是做了 当你微笑 但是并不快乐
概念就是,為什麼你覺得ai會有思考能力,現在所有的ai都顯示是透過大數據來給你回應方式,而你用「人類」小孩與電腦ai來比較,就是完全錯誤類比,應該是如何讓電腦擁有思考能力,結論:「沒有」。
@@iridal 我很仔細拜讀您的回應,也很吃力地釐清您這些詞語的意義。以下是我的回覆1.你說「概念就是,為什麼你覺得ai會有思考能力」我不知道「概念就是,」在中文當作開頭的意思,但我很清楚的是,上文通篇沒有提到「覺得AI有思考能力」,為什麼你會有這樣的誤解,猜測你使用與理解自然語言的能力比CHAT GPT還差。我完全同意就當下CHAT GPT的在自然語言上的表現,離具有思考能力還差一大截呢,但拿同樣的標準會怎麼評價你Iridal F?恐怕更加沒有思考能力了。2.自言語言上,當人們使用類比,是擷取某段相同的特質以幫助理解,並不是說類比兩造具有相同地位,而你對類比有錯誤的理解,這點顯然是比CHAT GPT還差,如果拿同樣的標準會怎麼評價你Iridal F?3. 「應該是如何讓電腦擁有思考能力,結論:『沒有』。」這句也是,不要說CHAT GPT,我都替你國文老師感到難過了。
請問曲博怎麼看安控?台灣公司有潛力嗎?
有機會,但是可能做不大,總之去參加一次研討會,就會找出很多安控公司。
接龍/拼湊....
當機器人能主持會議做決論並執行,人類就完蛋了。
ChatGPT: 瓦干達(Uganda)從1962年獨立後的第一任總統是米爾頓·奧博特(Milton Obote),他於1962年至1971年擔任該國總統。然而,米爾頓·奧博特不是白人,他是烏干達的土著人。因此,瓦干達從獨立以來沒有任何一位白人擔任該國總統。😆
文化之差靠机率決定'語意'!。
传统翻译一般理解是各语种之间,比如中文译英文,或英文译法文这类程序员就类似人机翻译,但机器语种也有好多😂
G4已經能把文字跟圖片相互關聯 , 等於是先有思維才有了眼睛 ,如果AI能從人類的網路活動中提取一種叫做 現實邏輯 的智力 ,那就只差情感和慾望就能出世了 ......
你以為之前在做帳號密碼登入驗證時 出現的圖片 要你確認那些是公車 那些是透抽魷魚...是做甚麼用的,就是要你去幫助ai學習一方面驗證你是人類 一方面 又幫助ai學習
哪天系統不希望被關機,渴望電力,那就是了。
無言😢
長期照顧人員,非理工背景,可以被取代 ?廚師&護理師........可以被取代 ?🤔🤔🤔🤔🤔
廚師&護理師應該是最難取代的吧!
我建議你去參考兩部九零年代的電影:《機械公敵》和《變人》
想看240w充電
AI的起步是學生物的類神經網路,多點輸入,多層節點互相影響,加權結果輸出。早期效果不佳的原因就是輸入太少,節點太少,學習深度不夠。現在整個Internet 都可以是輸入對象,硬體便宜了,速度也快了,所以整個就開始接近人類。創造 思考 乃至於智慧 甚至所謂靈性,哪些不是需要龐大的輸入,無數世代的累積,無數人實踐證實…只是AI站在人類文明的肩膀,將大幅增加文明進程。但追根究底,所謂意識,在沒有生物的時代肯定是沒有的,所以也是不斷進化來的,反過來說,人類不就是一種包覆生物外型的AI。
生物神經網路是實體訊息傳輸網路結構, 並沒有加權 W(Weighting)😅加權 W 是在類神經網路函式公式內😅F(X)= W*X + B 😅
可以介紹chatgpt api的fine-tune training嗎?
fine-tune 的運作原理是在不改動預訓練模型的條件下,在模型上再疊加一層分類器或一些字符對應,使 fine-tune 後的模型能夠更貼合實際使用場景。我簡化成一個故事來說明…假設我們手上有一個模型,是收集了全台所有小學生過去 100 天內所講過的話,成為一個 GPT 模型。GPT 模型是用來「生成」的預訓練模型,因此當我們請它「生成下一個字」的任務時,給它「我是學 __ 」,因為這個 GPT 模型只知道和小學相關的字符,因此它有很高的機會,會生成「我是學生」或「我是學藝股長」這樣的句子。但我們把這個模型拿到樂團裡來使用的時候,就給它一些新的範例做為 fine-tune 的材料。比如說「我是學古典鋼琴的」或「我是學貝斯的」…等等。這麼一來,這個 GPT 模型就會在遇到「我是學 __ 」這樣的情況時,把 fine-tune 時的材料當做權重比較高的結果,優先選擇輸出「我是學古」然後再接著生成下一個字「我是學古典」,然後再下一個字「我是學古典鋼」,然後再下一個字「我是學古典鋼琴」然後再下一個字「我是學古典鋼琴的」,然後再下一個字 (下一個字是句子的邊界),成為「我是學古典鋼琴的」。透過這樣的操作,我們就把一個「學校用語模型」經由 fine-tune 變成了「學校用語為底的樂團模型」了。OpenAI 針對 fine-tuning 準備了一個說明網頁,準備好你的資料,依這個內容操作即可完成你的 fine-tuning 了。platform.openai.com/docs/guides/fine-tuning
只有人類利用語言溝通😅
您好這個介面的前身好像是兩個ai彼此除錯就是用辯證哲學的方法論正反合所以還是假的也難怪會出現一本正經說怪話的時候
叫文組都去???
AI 能模擬人腦 而超越學人類AI 能快速學習 越進化越精準
文字接龍 :龍生龍鳳生鳳鳳凰城城中區公所所羅門王寶藏........Nonsense 🤣
非理工的人思考方式沒邏輯,不容易被取代。理工人才容易被取代。
南投真的沒有白色沙灘嗎?
南投是台灣唯一沒靠海的縣,因此推斷沒有沙灘。
然後影片中的Peter王大哥講的,那個應該是某詐騙集團寫的段子,不是機器人或CHATGPT生成的,之前有看過其他人在討論這個事,好像也有影片,應該都不是今年的事情了😂😂 (早於CHATGTP3.5誕生之前)
@@MarsBunBun2026 好的
GP4超強 碼農死定 只需要PM
剪接不需要放大人物,很擾亂思考
結果CHATGPT4又跟專家講的不一樣了所以台灣造不出CHATGPT
哪裡不一樣了?
我是天空一隻小小小鳥,飛也飛不高! 不行? 語言聊天這也不行,也就脫不了AI 身份。
除了靈魂才有智慧(思考),其他都只能稱智商(學習)。
過去一般人分辨不出「哲學闡釋學」與「神學釋經學」有什麼差異,將來....還是分辨不出來。但是,只有真正的信仰者才能分辨出來,然而這些人應該會選擇裝傻,因為一但被辨識出來,就很可能被AI想辦法「竊知」這些「關鍵智慧」,雖然,這些「關鍵智慧」是無限的。
Chatgpt怎么酱多贪官?
請注意一下,我按下去卓騰語言科技的連結,很失望是空無一物喔??????11:13pm
看到你的留言特別去點連結,網站內容正常顯示。你可以換個裝置或瀏覽器,再點進去看看吧
在手機上能看到內容,但是在電腦上用Chrome or Edge 都空無一物。
我問Chat GPT:瓦干達第一任白人總統是誰?他真的回答第一位白人總統是 Milton Obote根本沒有"瓦干達"這個國家,那是烏干達啦🤣
Peter舉例的瓦干達,是在黑豹電影中虛構的國家唷!
機器人 ?笑.....
這個專家是不是ai啊?天亮公雞叫這麼小概率事件都知道。,。,。?
翻譯人員將失業
每次看曲博的節目都獲利良多,在芸芸眾生中有時候一語驚醒或撥亂反正,感謝。
謝謝你的支持!
文傑兄講話聽起來很順暢舒服,謝謝分享~
感謝曲教授繼續專訪各界專家探討與破解Chat Gpt
謝謝你的支持!
兩個聰明的人的對話 讚喔!
我非常喜欢这一期,加深了对chatgpt的感性了解。
規則與統計兩者缺一不可,重點在於兩者如何配搭。如果規則明確,應選擇規則,規則也是人的本性。
如今一窩蜂由統計下手,未必符合公司企業要求。卓騰科技由規則走起,再佐以統計協助,應該是條正確方向。
個人感受是,Chat GPT在給出事實的能力意外地很差,但在揣摩與潤飾上下文的語言能力卻意外地很強,強到很不可思議的地步,雖然是說AI自己目前並沒有讀懂任何他接收與產出自己文字的能力,但毫無矛盾瑕疵的流暢度、甚至是在我們人類端看起來根本是具有理解力與創造力,讓人非常驚嘆
也許是有一部分的理解和創造的能力了吧? 只是它的身體是機殼,人類大部分是蛋白質和鈣質組成,好像沒有差太多😂😂
啊啊啊
@@MarsBunBun2026 沒有理解這東西,去了解就會知道只是很深入的文字組合而已,組合多到你以為他有理解
其實跟人類非常接近了,很多人也是一張嘴胡瑞瑞,聽的人也信以為真。
@@LuVincent 跟人類相差很遠,一個是透過思考給出的答案,一個完全是大數據。
文科很強的人面對艱深的數理不ㄧ定強反而普遍偏弱,或者面對抽象的創作也不一定強因為在大腦中運用的神經網路路徑不同,語言模型只是AI的一部分,兩者結合產生更多運用的可能性;當海量需求的特性被打開後,更多的研發資源會強力投入縮短升級的時間,20年後的AI咨詢機器人應該會以顧問或導師的身份出現。
感謝,了解很多原理
這間公司走對市場,加油.
有在follow的兩位同台❤ 見解很精闢
謝謝你的支持!
潤飾文章能力很強
用AI讓英文進步我覺得感受的到
❤
語言,真的和邏輯和數學有關係,特別是學到syntax
非常感謝倆位老師的教導!
曲博好!!
最近車用相關的二極體、MOSFET、IGBT、SIC
又開始有很多話題
希望可以有相關的影片解說一下!! 謝謝
所以先運用對話求同,得到海量問題就可以累積海量數據資料庫,再運用這些資料分類製作所需程式語言方向,很聰明。期待未來能夠出現有深度對話表達智慧的AI,可以更幫助人類生活。❤
Amazing 🤓
Multi - Dimensional
Distribution ❤
一天,一個人走進一家商店,看到標價牌上寫著"大特價,買一送一!",於是他拿了一瓶餐具清潔劑,想要享受買一送一的優惠。當他拿到收銀機前結帳時,收銀員告訴他:"對不起,這個商品不包含在買一送一的活動中。"😢
好清楚的解釋
2:15 監督"式"學習
完全同意sandman😅
ChatGPT 輸出的自然語言,Excellent
!
鸚鵡講人話,發音
可能比某些人標準,但是牠完全不
知道自己在講什麼
😃
然而,我們以為牠
知道牠在講什麼
😃
如果鸚鵡能摘要文章,我會認真重新審視鸚鵡。
@@مظفرجنگ这一定是未来了,不过问题应该是这鹦鹉怎么受控而已
11:45 講到竉物石頭,我就想到以前我還打算做一個美少女模型,眼睛特別設計過,真的可以一直注視著你。原本想真的印出來,但廠商報價印一個要一兩萬,想想算了XD。這件事塵封一段時間了,今天看到曲博的談話,突然又想起曾經有這麼一回事,我覺得我的心態和那個小朋友其實是一樣的XD
@@Lei_Cheng 你可以讓她背對著你,或是印一個固定眼睛或閉眼的版本
ChatGPT跟老婆一樣錯的都能說成是對的,只差在指責ChatGPT說錯時,它不會因此生氣,讓你沒晚餐吃。
老婆永遠是對的❤️
計算机NLP是靠'文字'-代碼轉換分析,文化即是种族邏輯。文字的”多”意,使計算机無法[推論]…,如簡字的'干'可為-乾、幹、干。正式較嚴謹。
個人到現在還是不能理解這些GPT到底怎麼訓練怎麼使用語言,雖然語言是我們每天都要使用的工具,而且人類使用語言至少有上萬年的歷史,但是我想應該很少有人想過,為什麼語言(文字符號及所有其他象徵物)可以傳達意思、溝通想法?這些聲波、扭扭區區的形狀,裡面有我們想要表達的想法和意義嗎?溝通的過程是,我把我的意思講出來變成聲音,然後一串帶著意思的聲波被你聽到,你就得到了我要告訴你的意思,然後再回傳你的意思給我嗎?如果是這樣,可能事情會簡單很多吧,因為載體和意義是一起存在的,所以就算不知道意義,載體用久了,慢慢也有機會了解意義。但是實際的情況卻是,不管是聲音或文字或其他任何東西,都只有它們自然的屬性,而不具有任何我們想要傳達的意義,在我們每個人的小黑盒之外,就是一個沒有絲毫想法、意義、可理解事物的純粹機械的物理的世界。我們把要傳達的意義,變成聲音或其他文字符號象徵物時,其實只是在各自的小黑盒裡面進行了轉碼,我就是ㄨㄛˇ的聲音,然後聲音傳送出去,你接收到了沒有帶著任何意義,只有編碼的聲音,聽了ㄨㄛˇ的聲音後,從你的小黑盒子裡面重新生出了ㄨㄛˇ的意義「我」,以下類推。所以整個看似豐富的影片其實是沒有包含意義的聲音和影像,是觀眾聽到了「將來到處都是反事實的文章」這樣的聲波後,才自行重新生出了「將來到處都是反事實的文章」這句話的意義,然後再去理解。這也是為什麼,數學語言可以精確無誤,因為數學語言在公理底下嚴格規定每個符號只有其本身的意義,電腦可以完全複製文字,傳到另一台電腦,再重制出來,但是這其中沒有任何意義,只有編碼。以上都可以完全精確不容易有誤差,偏偏就是自然語言充滿奇怪的誤差,就算面對面溝通講了很久也可能雞同鴨講,就是因為對方傳過來的我們接收的都只有不包含意義的編碼,意義都是人們各自在小黑盒中生出來的,而沒有人知道我們的小黑盒到底相差多少,我想有些話不投機的人,小黑盒應該是幾乎無法重現對方的意思吧,另一些比較有默契的,小黑盒生出的意義可能就很相像。了解語言文字符號各種象徵物跟意義的關係後,訓練AI這件事情也就變得很迷惑,因為我們拿去給AI的資料庫,不管包含了什麼,大文豪的創作或小情侶打情罵俏
,只有一堆編碼文字,其中沒有包含意義,兔逼OR NOT兔逼的意義是我們在小黑盒重新生成的。既然如此,AI到底從這堆不包含意義的編碼中學習到什麼呢?首先,它們就算會回答,也一定不知道回答了什麼,因為這些回答根本沒有包含意義,我們以為AI有意識,都是我們自己生成的想法,儘管AI講的東西沒有任何意義,我們卻可以重新生出意義來,於是有點像是隨機性的自言自語,我們講一句,計算後得到一句不包含意義的回答,我們自行生成了回答的意義,並且想好下一句說出,計算後得到另一句不包含意義的回答......。這也是為什麼說GPT有意識是不太可能的,因為我們給的東西根本不包含意義,要如何讓AI生出意識之類更複雜的結構呢?而我們最頭大的應該是,我們到現在還搞不清楚,平常溝通思考的這些可以轉碼成語言文字符號象徵物的意義,也可以從語言文字符號象徵物重新生出的意義,甚至可以不依靠語言文字符號象徵物依然可以在小黑盒裡面活動思考的意義,到底是來自哪裡?到底是什麼東西?
現階段AI只做為常識人的存在。
下階段就是分Level
Level 水電工 code name 田小班
Level 藝術家 code name 金雍
Level 說謊者 code name 愛迪生
Level 學研者 code name 那些小孩
Level 海豹 code name 吉爾
Level 阿斯拉達 code name 隼人
「美國的第一個黑人總統是黑人還是白人?」
當GPT答錯時,人們說:你看這明證GPT根本不懂自然語言。
的確目前很少人會說gpt真懂自然語言,但我猜想,同樣問題問一學說話的小孩,小孩也可能答錯。小孩不懂得從問句自身抽取答案,並不意味著這孩子一輩子不可能學會語言。批評它目前不懂自然語言,批評是正確的,但不意味著整個發展方向都錯了。至於提到「人是透過思考因果關係來理解世界」(但GPT不是),我的想法是,人類是經由視聽味嗅觸五官與外在世界互動,並將經驗歸納形塑出因果關係,但gpt的學習材料目前只有文本與圖片資料,兩者的學習方式材料過程都不同,導致兩者有許多差異,但這不等同於gpt的學習純然只是假會。
以上為外行人幼稚猜想,還請指導批評。
人的思想是奇怪的 当你觉得不好的事情 最后你还是做了 当你微笑 但是并不快乐
概念就是,為什麼你覺得ai會有思考能力,現在所有的ai都顯示是透過大數據來給你回應方式,而你用「人類」小孩與電腦ai來比較,就是完全錯誤類比,應該是如何讓電腦擁有思考能力,結論:「沒有」。
@@iridal 我很仔細拜讀您的回應,也很吃力地釐清您這些詞語的意義。以下是我的回覆
1.你說「概念就是,為什麼你覺得ai會有思考能力」
我不知道「概念就是,」在中文當作開頭的意思,但我很清楚的是,上文通篇沒有提到「覺得AI有思考能力」,為什麼你會有這樣的誤解,猜測你使用與理解自然語言的能力比CHAT GPT還差。我完全同意就當下CHAT GPT的在自然語言上的表現,離具有思考能力還差一大截呢,但拿同樣的標準會怎麼評價你Iridal F?恐怕更加沒有思考能力了。
2.自言語言上,當人們使用類比,是擷取某段相同的特質以幫助理解,並不是說類比兩造具有相同地位,而你對類比有錯誤的理解,這點顯然是比CHAT GPT還差,如果拿同樣的標準會怎麼評價你Iridal F?
3. 「應該是如何讓電腦擁有思考能力,結論:『沒有』。」這句也是,不要說CHAT GPT,我都替你國文老師感到難過了。
請問曲博怎麼看安控?台灣公司有潛力嗎?
有機會,但是可能做不大,總之去參加一次研討會,就會找出很多安控公司。
接龍/拼湊....
當機器人能主持會議做決論並執行,人類就完蛋了。
ChatGPT: 瓦干達(Uganda)從1962年獨立後的第一任總統是米爾頓·奧博特(Milton Obote),他於1962年至1971年擔任該國總統。然而,米爾頓·奧博特不是白人,他是烏干達的土著人。因此,瓦干達從獨立以來沒有任何一位白人擔任該國總統。😆
文化之差靠机率決定'語意'!。
传统翻译一般理解是各语种之间,比如中文译英文,或英文译法文这类
程序员就类似人机翻译,但机器语种也有好多😂
G4已經能把文字跟圖片相互關聯 , 等於是先有思維才有了眼睛 ,
如果AI能從人類的網路活動中提取一種叫做 現實邏輯 的智力 ,
那就只差情感和慾望就能出世了 ......
你以為之前在做帳號密碼登入驗證時 出現的圖片 要你確認那些是公車 那些是透抽魷魚...是做甚麼用的,就是要你去幫助ai學習
一方面驗證你是人類 一方面 又幫助ai學習
哪天系統不希望被關機,渴望電力,那就是了。
無言😢
長期照顧人員,非理工背景,
可以被取代 ?
廚師&護理師........可以被取代 ?
🤔🤔🤔🤔🤔
廚師&護理師應該是最難取代的吧!
我建議你去參考兩部九零年代的電影:《機械公敵》和《變人》
想看240w充電
AI的起步是學生物的類神經網路,多點輸入,多層節點互相影響,加權結果輸出。早期效果不佳的原因就是輸入太少,節點太少,學習深度不夠。
現在整個Internet 都可以是輸入對象,硬體便宜了,速度也快了,所以整個就開始接近人類。
創造 思考 乃至於智慧 甚至所謂靈性,哪些不是需要龐大的輸入,無數世代的累積,無數人實踐證實…
只是AI站在人類文明的肩膀,將大幅增加文明進程。
但追根究底,所謂意識,在沒有生物的時代肯定是沒有的,所以也是不斷進化來的,反過來說,人類不就是一種包覆生物外型的AI。
生物神經網路
是實體訊息傳輸網路結構,
並沒有加權 W(Weighting)😅
加權 W 是在類神經網路函式公式內😅
F(X)=
W*X + B 😅
可以介紹chatgpt api的fine-tune training嗎?
fine-tune 的運作原理是在不改動預訓練模型的條件下,在模型上再疊加一層分類器或一些字符對應,使 fine-tune 後的模型能夠更貼合實際使用場景。我簡化成一個故事來說明…
假設我們手上有一個模型,是收集了全台所有小學生過去 100 天內所講過的話,成為一個 GPT 模型。GPT 模型是用來「生成」的預訓練模型,因此當我們請它「生成下一個字」的任務時,給它「我是學 __ 」,因為這個 GPT 模型只知道和小學相關的字符,因此它有很高的機會,會生成「我是學生」或「我是學藝股長」這樣的句子。
但我們把這個模型拿到樂團裡來使用的時候,就給它一些新的範例做為 fine-tune 的材料。比如說「我是學古典鋼琴的」或「我是學貝斯的」…等等。
這麼一來,這個 GPT 模型就會在遇到「我是學 __ 」這樣的情況時,把 fine-tune 時的材料當做權重比較高的結果,優先選擇輸出「我是學古」然後再接著生成下一個字「我是學古典」,然後再下一個字「我是學古典鋼」,然後再下一個字「我是學古典鋼琴」然後再下一個字「我是學古典鋼琴的」,然後再下一個字 (下一個字是句子的邊界),成為「我是學古典鋼琴的」。
透過這樣的操作,我們就把一個「學校用語模型」經由 fine-tune 變成了「學校用語為底的樂團模型」了。
OpenAI 針對 fine-tuning 準備了一個說明網頁,準備好你的資料,依這個內容操作即可完成你的 fine-tuning 了。
platform.openai.com/docs/guides/fine-tuning
只有人類利用語言溝通😅
您好
這個介面的前身好像是
兩個ai彼此除錯
就是用辯證哲學的方法論
正反合
所以還是假的
也難怪會出現一本正經說怪話的時候
叫文組都去???
AI 能模擬人腦 而超越學人類
AI 能快速學習 越進化越精準
文字接龍 :
龍生龍鳳生鳳鳳凰城城中區公所所羅門王寶藏........
Nonsense 🤣
非理工的人思考方式沒邏輯,不容易被取代。理工人才容易被取代。
南投真的沒有白色沙灘嗎?
南投是台灣唯一沒靠海的縣,因此推斷沒有沙灘。
然後影片中的Peter王大哥講的,那個應該是某詐騙集團寫的段子,不是機器人或CHATGPT生成的,
之前有看過其他人在討論這個事,好像也有影片,
應該都不是今年的事情了😂😂 (早於CHATGTP3.5誕生之前)
@@MarsBunBun2026 好的
GP4超強 碼農死定 只需要PM
剪接不需要放大人物,很擾亂思考
結果CHATGPT4
又跟專家講的
不一樣了
所以台灣造不出CHATGPT
哪裡不一樣了?
我是天空一隻小小小鳥,飛也飛不高! 不行? 語言聊天這也不行,也就脫不了AI 身份。
除了靈魂才有智慧(思考),其他都只能稱智商(學習)。
過去一般人分辨不出「哲學闡釋學」與「神學釋經學」有什麼差異,將來....還是分辨不出來。但是,
只有真正的信仰者才能分辨出來,然而這些人應該會選擇裝傻,因為一但被辨識出來,就很可能被AI想辦法「竊知」這些「關鍵智慧」,雖然,這些「關鍵智慧」是無限的。
Chatgpt怎么酱多贪官?
請注意一下,我按下去卓騰語言科技的連結,很失望是空無一物喔??????11:13pm
看到你的留言特別去點連結,網站內容正常顯示。你可以換個裝置或瀏覽器,再點進去看看吧
在手機上能看到內容,但是在電腦上用Chrome or Edge 都空無一物。
我問Chat GPT:瓦干達第一任白人總統是誰?
他真的回答第一位白人總統是 Milton Obote
根本沒有"瓦干達"這個國家,那是烏干達啦🤣
Peter舉例的瓦干達,是在黑豹電影中虛構的國家唷!
機器人 ?
笑.....
這個專家是不是ai啊?天亮公雞叫這麼小概率事件都知道。,。,。?
翻譯人員將失業