Это видео недоступно.
Сожалеем об этом.

【观点】程序员会不会被AI取代?

Поделиться
HTML-код
  • Опубликовано: 22 апр 2023
  • 所以,程序员会不会被AI取代?

Комментарии • 98

  • @ZZQ95
    @ZZQ95 Год назад +18

    感觉理解的非常有深度,我用ChatGPT等AI辅助自己编程有一段时间了,期间主要使用GPT4,毫无疑问,是个令人惊艳和震撼的工具,我个人编程20多年,但感觉在知识面和写代码速度上都难以望其项背。但要说其取代程序员,目前来说还是些外行人的冷笑话。
    即使最强的GPT4也经常产生似是而非的代码,非常依赖提示引导和后期修改,而且关键是它们目前还只能在很小的尺度内生成,感觉这类AI更像是一个更易用的搜索引擎,一件趁手的武器,善加利用的话,能极大提升自己的能力,节省大量的时间。

    • @dlxorgus
      @dlxorgus 11 месяцев назад

      使用门槛相当低的强大工具 零编程基础的我都可以用它开发一些小小的定制程序

    • @user-le6ou6qz7s
      @user-le6ou6qz7s 9 месяцев назад

      @@dlxorgus 尊嘟假嘟o.0?

  • @huangjames8130
    @huangjames8130 Год назад +17

    GPT的本質就是文字接龍,他生成答案的方式就是計算下一個文字機率,這是他的根本也是無法改變的根本
    另外一個問題是Loss Function的設定,現在沒有任何一種Loss Function可以衡量邏輯關係,絕大多數都只是單存的比較輸出與label的差異
    除非突破這兩個根本的問題,否則基於GPT的模型很難會在邏輯推理上有重大的突破

    • @ck-dl4to
      @ck-dl4to Год назад +1

      Transformer 訓練夠快才先有大模型公開,其他的技術只停在論文和demo裡

    • @huangjames8130
      @huangjames8130 Год назад +1

      @@ck-dl4to 是的,這也是為什麼NV一直盤踞市場地位

  • @XD-nl1wl
    @XD-nl1wl Год назад +28

    身為資訊本科
    你對於AI的見解是我看過最客觀也最合理的
    還有我認為人類對於智能跟智慧不可能透過統計得出
    只是「身為人類的傲慢」而已
    實際上人類根本不知道自己的大腦是怎麼運作的
    我個人認為AI會在短中期發展到一定程度然後出現技術瓶頸
    而在下一次的硬體條件突破後正式產生智能改變整個世界運行的法則

    • @huaitehuang5419
      @huaitehuang5419 Год назад

      用本科這個詞又寫繁體,難道是港澳人?

    • @呀咧呀咧
      @呀咧呀咧 Год назад

      ​@@huaitehuang5419看她他影片的標題,應該不是

    • @Tim78763
      @Tim78763 Год назад

      ​@@huaitehuang5419台灣也會用本科這個詞,但意思不太一樣

    • @velhlkj
      @velhlkj Год назад

      人腦就是統計學,具體看我的評論。順便,量子計算機並不遠,很可能在AI到達瓶頸前就已經投入應用了,這一點我在評論中也有提到

    • @XD-nl1wl
      @XD-nl1wl Год назад

      @@huaitehuang5419
      不然應該用什麼
      資訊純血嗎(´・ω・`)

  • @bardeebooboo
    @bardeebooboo Год назад +5

    程序员不太需要關心這個問題
    原因很簡單
    因為GPT的真正強項是文字處理
    所以最先失業的會是文字工作者
    所以到時候真要波及到我們時
    早就有人替我們抗議過了

    • @glimpselight4562
      @glimpselight4562 3 месяца назад

      但是感覺文字工作者最主要輸出的是思想,他們的文字並不會直接決定觀眾流量多少

  • @lioscar5050
    @lioscar5050 Год назад +2

    目前AI是把「歸類」做到極致,只要有夠多的資料和信息維度,就可以更接近「智慧」,但它不能憑空造程式,也因為不同程式有很大分別,光用這種演算法就算再過10年都未必能做複雜編程

  • @MattCooking
    @MattCooking Год назад +11

    准确地说,程序员可能可以被替代,但是工程师不能

  • @rayy4720
    @rayy4720 Год назад +1

    农业技术的进步确实会提高效率产能以及更多的工作机会,但绝对不是让更多人来当农民

  • @dlxorgus
    @dlxorgus 11 месяцев назад +4

    “老五对老四说老三的老二老大了” 这句话里出现了几个人物?
    GPT-4: 五个 😂

    • @yandali9796
      @yandali9796 4 месяца назад

      这句话 "老五对老四说老三的老二老大了" 在中文里使用了多义词和复杂的指示代词,使得句子的意思和包含的人物数量不那么直观。这句话可以分解理解如下:
      "老五":指的是第五个人物。
      "老四":指的是第四个人物。
      "老三":指的是第三个人物。
      "老三的老二":这里的 "老二" 可以理解为老三的弟弟或妹妹,即第三个人物的第二个兄弟姐妹。但在没有上下文的情况下,很难判断这是指具体哪一个人物,可能是老三之下的第一个人物,也可能是整个序列中的“老二”。
      "老大了":这个表达可以理解为变老或者长大了。
      所以,这句话至少涉及到三个明确的人物(老五、老四、老三),至于 "老三的老二" 是指序列中的哪一个人物(老二或老三的某个兄弟姐妹),则不太确定。如果我们按照最简单的理解,即 "老三的老二" 就是指序列中的“老二”,那么这句话涉及到四个人物。如果 "老三的老二" 指的是老三的另一个兄弟姐妹(不是序列中的“老二”),那么人物数量可能更多,但由于缺乏具体上下文,难以准确判断。
      这是最新的回复,可以看出进化速度是快的。

  • @rangehuang8982
    @rangehuang8982 Год назад +1

    通常會覺得可以取代程序員的人,就是不懂AI的人,更別說知道反向傳播演算法的數學意義。
    Chatgpt生成代碼都有美中不足的地方,但可以省去大量基本架構,可是要知道這些就必須有程序員。

  • @hinoshimizu8351
    @hinoshimizu8351 Год назад

    可以這麼說:目前有智能的AI,只能等同於一個盲目相信數據的人,至於你要他做出自己的理解和判斷,那麼結果將不可能建立在推翻數據的基礎上

  • @KewoNg-to6zj
    @KewoNg-to6zj 10 месяцев назад

    要搞清楚AI到底有沒有辦法產生邏輯思維,首先要明白什麼是邏輯。人腦思考問題的步驟可以分為三步,首先找出問題中的相關元素,然後尋找和那些元素有關的解決方案,最後把解決方案套上去解題。所謂解決方案,指的是一個能把一個問題變成另一個問題的變換,以視頻中倒水題為例,人分析出裡面的元素之後,尋找可能有用的方法,比如說這題可能和加減運算有關,也可能和找到倒出1升水的方法有關,之後人找到能把倒出1升水的方法變換成倒出2升水的方法的變換,對倒出1升水的方法進行2次這個變換便得到了倒出3升水的方法。ChatGPT的做法首先和人類一樣分析元素,然後是直接找問題的答案,而不是尋找把問題變成其他問題的變換,這也說明了以目前ChatGPT的模式是絕對無法產生真正的智慧的,ChatGPT必須要做到「尋找變換」和「套用變換」,前者要通過進行變換前和變換後的對比實現,後者需要通過經驗法則明白怎麼樣的組合最有可能快速得到答案,想要做到這些東西就必須要把「變換」這種概念轉換成可以運算的函數,也就是說必須要找到把任意概念參數化的方法,這個難度甚至比物理上用公式描述整個宇宙還大。

  • @darkkane1982
    @darkkane1982 Год назад +1

    确实这玩意写sql太好用了,以前还要去求数据大爷们给写,现在我只需要问他们数据库和列名就可以了

  • @monster11229
    @monster11229 10 месяцев назад

    細節,全是細節,講得太好了

  • @fake_messenger
    @fake_messenger Год назад +9

    在我認知中,AI代表著人的左腦,但右腦的功能是不存在的,所以AI不懂得創造,但懂得拼接素材。只能說他們不能無中生有,但能把有變成更多。
    如果人類認為模仿=智慧,那麼人類就太低端了

    • @zizjzjjsjsj
      @zizjzjjsjsj Год назад

      real,现在各种大佬都用autopilot了

    • @glimpselight4562
      @glimpselight4562 3 месяца назад

      但是它模仿的歷史千年的人類智慧

  • @miku3920
    @miku3920 Год назад +3

    我相信在不久之後就會出現能做到邏輯推理的模型,邏輯推理也只不過是知識的一部份,只要讓模型學會邏輯推理的步驟與自我驗證就行了

  • @aqzhyi
    @aqzhyi Год назад +1

    只要有好用的 工程AI 出生,工程師皆表示:狂喜

  • @0wquick49
    @0wquick49 Год назад +1

    非常合理

  • @nokia_angels
    @nokia_angels 5 месяцев назад +1

    绝对会被替代 时间的问题

  • @fcjbdky
    @fcjbdky Год назад +1

    血肉羸弱、机械飞升是必然趋势、但是机械无论硬件还是软件都是人类系统运行模式、因为它是基于人的运行逻辑产生的、最究极程度就是机械和细胞一样、合适的培养皿就疯狂复制、靠机械同类监视同类运行健康程度、整体比碳基生命更高效、但是还是受物理框架限制、而且地球资源有限、不可能一下把合适的资源全转换成机械所需、

  • @velhlkj
    @velhlkj Год назад +1

    實際上,人腦的本質就是統計學 + 變數。在理性方面,人腦就是統計學,純粹的統計學。而感性方面則是源自於腦葉和激素的目前無法解釋的「隨機」的物質。
    我們其實可以仔細的想想,人類的認知到底是什麼?實際上就只是「特徵點」的堆疊,比如我把一個手機做成圓的,甚至是一個球形,你絕對無法認知他是一部手機,甚至做成正方形就可以干擾你的認知,你就需要更多的「特徵點」來進一步確認,比如尋找螢幕,按鈕,甚至打開螢幕後看看裡面的內容等等。而我們一直擔心的AI出現的「自我意識」其實也是一樣的,所謂的自我就是「什麼是我」,同樣是基於特徵點的認知,無數個「特徵點」編織的一個巨大網絡形成了人類對事物和自我的認知。因此人類的大腦工作方式同樣是 輸入(捕捉特徵點)->根據權重比對特徵點->得到相似度->輸出(結論)其中根據權重比對就比如有些非常規的手機,比如美圖手機,他的外型不是常規的長方形,但是你還知道他是手機,那是因為「長方形螢幕」和「大小」的特徵點的權重大於外型,所以和手機的相似度還是高的。了解人工智能的就會知道,這個過程與人工智能的思考過程是100%匹配的。
    至於感性(情緒)這方面,其實也是一種統計學,痛了會哭,有好事會笑,遇到討厭的事會憤怒等等,任何的情緒都是有輸入的!除非有病,否則任何的情緒一定是有一種或多種誘因的,這個誘因可能是強烈的,也可能是你根本沒有注意到的。比如你心情很好,或許只是你昨晚睡得好,你的器官(內臟)傳遞的積極訊號,你會說「不知道為什麼心情很好」並不是說你的「心情好」真的就是無緣無故的,只是你可能沒有意識到這個「輸入」而已。基於這一點,情緒是可以通過統計學和大數據的訓練來產生的。有人說這只是模擬,而不是產生。但是基於對人類情緒的觀察,人類的情緒本身就不是憑空出現的,由輸入觸發情緒反饋,若我們把人看作是更高級文明創造的人工智能,那麼我們的情緒難道不也是一種模擬?
    目前受限於算力,所以要完整模擬人腦的巨大層級是困難的,所以現在只能部份模擬,層級不夠深當然就不夠智能,但量子計算機已經到來了,當量子計算進入人工智能領域,把統計深度進化到人腦甚至超越人腦的層級的話,那麼AI必然超過人類,不但擁有真正思考能力,甚至擁有自我意識。這一天不會太遠了,而這一天的到來,也是人類必須面對的一個劫難,一個比你強的種族,是不會甘願被你當作工具的,若有分歧,人類危矣。

    • @Tim78763
      @Tim78763 Год назад

      你想說的是,「學習就是一種統計行為」?然後現在工程上利用統計的方法實現了機器學習,所以驗證了這個說法。再類推到人類(人腦)學習。

    • @velhlkj
      @velhlkj Год назад

      @@Tim78763 我想說的相反,人工智能的學習其實恰恰就是人腦的學習方式,我並沒有說因果,如果說真的有,那麼也是機器學習是模仿人腦的,不然為什麼最廣泛的機器學習都叫做「神經網路」?就是因為機器學習本身就是模仿人腦神經元的運作原理的。因此我說這二者並沒有本質上的區別,只不過人腦處理一個信息可能有成萬上億的神經元參與(因為包含太多細節的特徵點),而機器的算力不夠。這就是我說的層級差距,但量子計算可能會彌補這個算力差距,那麼至少理性方面,AI將會不弱於人腦

    • @velhlkj
      @velhlkj Год назад

      @@Tim78763 這麼說吧,人腦的運作原理我早就解析了,但是信不信就不關我的事了。愛因斯坦的引力波理論也是早就已經發布出來的,可是不也是在他離事後的近幾年才被證實嗎?所以現在不用急著質疑喔

  • @Design-Enjoyment-Happiness
    @Design-Enjoyment-Happiness Год назад +2

    身為碼農,只能說能取代就太好了。

  • @Tim78763
    @Tim78763 Год назад

    看看最近幾天室溫常壓超導體的騷動。
    未來當有人宣稱實現了通用人工智慧時,也會有類似的騷動吧!

  • @franklinkci2530
    @franklinkci2530 Год назад

    我觉得ai替换的纬度和现阶段社会的岗位职级评级的标准不在一个维度上。有纬度交叉,但不会完全替换,不论初级还是高级

  • @poetkun2953
    @poetkun2953 Год назад +2

    AI发展到当前阶段可以说是接近了在没有拥有与现实世界交互媒介的极限,而这个能让ai拥有能与现实世界交互的媒介就是机器人,但现在机器人技术的发展暂时落后于ai技术的发展,进而限制了ai技术的进一步发展,ai在没有与机器人技术结合的情况下就无法与现实世界交互,也就无法真正理解基于现实世界的人类语言背后所真正代表的一系列概念,所以我认为光靠数据叠加是达不到智能涌现的,或者说只能达到伪智能涌现,要达到真正的智能涌现一定要通过ai技术与机器人技术的相结合才能达到

  • @iszhangju
    @iszhangju Год назад

    说的太好了。

  • @Alan_Skywalker
    @Alan_Skywalker Год назад

    目前至少从硬件需求来看,语言模型和推理是完全不同的两个方向。

  • @middleagebrotips3454
    @middleagebrotips3454 Год назад +4

    主要是老板以为AI很厉害,先裁员,再把AI丢过去让程序员自生自灭。

    • @wsp87041
      @wsp87041 Год назад +5

      最令人氣憤的是,還有很多自以為是的使用者會說你這個功能這麼簡單怎麼還會做不出來,你的這東西不就是就把chatgpt上的東西複製出來然後貼上就好了嗎?這個我也會阿~~ 你幹了這麼多年了怎麼還不會? 然後你老闆旁邊聽了點點頭,覺得使用者說的有理。順帶一提,我上面提的Case 通常是使用者要求你在一個小程式上加入臉部辨識跟圖像辨識這一類的功能,然後他們覺得這些都是從chatGpt上複製出來就可以達成的東西

    • @ck-dl4to
      @ck-dl4to Год назад

      ​@@wsp87041禮貌問他們:請問你自己也能做到對吧

    • @zefyra-metriz
      @zefyra-metriz Год назад +2

      最大的問題是老闆會過度相信AI,「ChatGPT說可以,為什麼你說不行?一定是你的技術太爛」

  • @yutianfeng7176
    @yutianfeng7176 9 месяцев назад

    如果一个“东西或者生物”,他目前能够实现所有人类能实现的逻辑分析,能解决所有现实的问题,并且拥有全知全能的数据库和人类所积攒的所有知识。那么他必然脱离人类的控制,因为他已经是下一个进化的产物。而这个时候,人类已经变得毫无意义

  • @carzetonao
    @carzetonao Год назад

    是的,关键是有些具体的需求,你无法让ct理解。

  • @tsuai8306
    @tsuai8306 6 месяцев назад

    AI 或許不能取代人,但是懂AI的人會

  • @kjyhh
    @kjyhh Год назад +1

    😰AI威胁到的是百度的程序员。随便一个训练数据都吊打百度……

  • @user-zn5tn9br3b
    @user-zn5tn9br3b 9 месяцев назад

    再過幾年程式工程師就要失業了,老屁股就算了,但新人才學沒多久的,準備要投資學習基礎程式語言的,一學就是2~3年,要特別小心被取代的問題。

  • @cbc6666
    @cbc6666 Год назад

    我開發過許多應用,但是當我去試著做那些所謂“競賽”和取得“證照”,表現可能沒有”考試機器“來的好

    • @xxxxxxxx7957
      @xxxxxxxx7957 11 месяцев назад

      然而這可能存在類似機器學習中過度擬合的問題,導致取得競賽與證照優異成績的考試機器反而無法應用在其他實務層面上

  • @primeang7262
    @primeang7262 Год назад

    我是刚学习python ,但是已经用了chatgpt 帮助我赚外快,大部分都是问chatcgpt 完成我的要求,甚至我都不知道chatgpt写什么 。抄就完了

  • @exefncs2
    @exefncs2 Год назад +1

    對於一個會寫的人 會覺得 他只能弄個框架 整體讓他弄 會覺得他是人工智障

  • @MaleGeminiCat
    @MaleGeminiCat Год назад +1

    ChatGPT 必然是 AI,但 AI 不必然是 ChatGPT。
    ChatGPT 不是神,別神話它了。用白話的方式形容這個模型,它就只是一個很會背書,也背了很多書,擅於把文字接龍玩得真假難辨(包含胡扯幹話)的「文字接龍機」。
    同時,AI 不是只有 ChatGPT,別把 AI 看窄,甚至看扁了。硬體算力才剛爆發過了奇點而已,還有很大發展空間。

  • @JoJo_PaMa
    @JoJo_PaMa 9 месяцев назад

    写的不错

  • @sh0utAmazingDuck
    @sh0utAmazingDuck Год назад

    雖然作為專題生有一種被嗆的感覺,不過你說的很對,但反過來想我的專題只要飽富邏輯一種chatGPT無法推算的邏輯只有人類可以到達的地方,那麼我也就成功了對吧。

  • @fromtaoyuanhsinchyyou9075
    @fromtaoyuanhsinchyyou9075 Год назад

    講的超好

  • @jieli2739
    @jieli2739 Год назад

    有一说一,就算ai是神一样的存在,可以进行所有的生产实践,也不会在资本主义的体制下代替人。简单说原因就是没有市场可以消化产品,资本无法增长。换句话说就是工人全被ai代替,没有钱买东西了。或者说没有抽象劳动,商品就失去了价值

  • @wayne8863
    @wayne8863 2 месяца назад

    Promote 工程?

  • @Brian-ls8kw
    @Brian-ls8kw 10 месяцев назад

    ChatGPT會否取代晶體智力,並加強年齡越大失業越容易?

    • @Brian-ls8kw
      @Brian-ls8kw 10 месяцев назад

      如果某種程度上會的話 人類在50歲後提高競爭力的方式應該如何改變?

  • @nafoul342
    @nafoul342 Год назад

    不会,因为程序员的工资远不如AI的维护费用贵

  • @ilemt0923
    @ilemt0923 Год назад

    感覺重災區應該是在翻譯相關的工作上

    • @ck-dl4to
      @ck-dl4to Год назад

      Google 早就用了😂 Transformer 也是從 Google 開始的

  • @sunnylee9762
    @sunnylee9762 8 месяцев назад

    目前的AI再高级,也是基于大数据的学习,不是真正的逻辑思维,不具创造力

  • @paypal2674
    @paypal2674 Год назад

    "GPT,帮我写个游戏,要求:好玩,能赚钱"

  • @eroo2271
    @eroo2271 Год назад

    神经网络体现的是人类感性的那一方面,感性是最先被实现的这比较反直觉。但是人类就是用感觉来分别人脸,来说话的。

    • @velhlkj
      @velhlkj Год назад

      恰恰相反,人類的認知是基於「特徵點」而不是玄學的「感覺」。神經網路本身就是一個不斷比較特徵點的過程,所以是理性而非感性。感性受到體內激素等等的影響,例如病理性抑鬱症就是源自於這種因素,目前這類物質的產生還沒有一個確切可控的規律,這也就是為什麼AI到目前為止,對於情緒是非常薄弱的,因為在感性部份存在無法確定的一些 變數

    • @eroo2271
      @eroo2271 Год назад

      @@velhlkj AI能够很容易通过图片或语言或声音做情感分类,甚至比人类还准确

    • @velhlkj
      @velhlkj Год назад

      @@eroo2271 去看我的評論,有詳細的解釋。簡單來說,AI目前的情感分類只是去除了我說的不確定因素,僅僅以「誘因」作為「特徵點」來做分析,當然可以分辨情緒。但這只做到了一半,比如說 一個葬禮的圖片,它可以分析出是葬禮,而葬禮/死人/哭泣等被分類為「悲傷」,可是如果觀看者只是路人,那真實情緒就是「平靜」,而如果是死者的仇人呢?那就是「愉快」。所以它的判定是不完整的,缺少大量因素的「偽判定」。聲音也是一樣,它只是通過音調的「特徵」去判定,而並不能真實判定。
      就像是人吵架,有時也是誤判了對方的情緒,為什麼人誤判更多呢?是因為諸如「聽到對方聲音就感覺煩」這類的,和自身認知和情緒誘因(一種條件反射)有關的因素,但AI不會參考這類誘因,因此他的判定是純粹基於聲波的。在旁觀者來看是「更準確」的,但它無法推斷出「A討厭B,所以A聽到B心平氣和的一句話時會表現出 不耐煩」這個情緒的,它會僅依據「B心平氣和」這一個特徵點來預測A的態度是「接受」甚至是「愉悅」。

    • @velhlkj
      @velhlkj Год назад

      @@eroo2271 人腦和AI的「輸入」都是抓特徵點的過程。不同的是,人腦抓的特徵點包含了外在和內在,特徵點的數量也更多,所以結果會有差別,情緒也是,通過足夠大量的特徵點便可以擬態,但是人類情緒多了一點,就是分泌物的干擾,比如我們常說的多巴胺之類的,這些物質產生的原因、產生的量等是目前無法確定的。還有腦葉的工作原理也是一樣的,這種 情緒衝動 怎麼模擬?隨機數嗎?那概率呢?
      這些生物才會產生的物質,用AI只能是隨機數模擬,經過反覆調校是可能模擬得非常接近的,但如過不能解密這些「情緒衝動」產生的具體規則,找到產生它的具體「誘因」,就不能真正產生真實的情緒。
      我相信所有的「情緒衝動」和「物質分泌」產生是有固定規則的,總有一天是可以被徹底解析的,但目前為止還做不到。

  • @user-nv5ty6bj4d
    @user-nv5ty6bj4d Год назад

    結果就是 本來PM不用會寫code變成要會寫code去自己解決基本問題XDDD
    工作沒有不見,只是從工程師手上跑到PM自己手上
    聰明的PM會這樣自己找自己碴嗎?

    • @poetkun2953
      @poetkun2953 Год назад +3

      肯定有一部分产品经理会主动去这么做,而一旦他们当中有一部分这么做就会形成产品经理之间的相互竞争,剩下一部分刚开始不愿意这么做的产品经理们,最后也会被市场的竞争倒逼朝着这个方向走

    • @Caprious100
      @Caprious100 Год назад

      會的,個人化設計是一個對整體效率很差但對個人優化很好的項目。就比如多數使用excel的人都會用常見的公式來解決手動輸入的痛點。
      只要時間拉長,個人化設計的流程都能節省出超過設計並實現的時間,而ai可以大幅縮短實現所需的時間讓這個行為更划算。

    • @ck-dl4to
      @ck-dl4to Год назад

      ​@@Caprious100請問個人化設計要如何商業化

    • @marcus9874
      @marcus9874 Год назад

      不是相反嗎, 工程師用chatgpt寫文檔簡單很多

    • @user-xd4mc1zx6n
      @user-xd4mc1zx6n 11 месяцев назад

      @@marcus9874 文件,公司不都有類似的公模嗎?

  • @user-rgstxcf123
    @user-rgstxcf123 Год назад

    沙发

  • @henrymot638
    @henrymot638 8 месяцев назад

    这是低版本。