"경이롭지만 매우 불안"…'노벨 물리학상' AI 대부의 경고 / SBS 8뉴스

Поделиться
HTML-код
  • Опубликовано: 21 дек 2024

Комментарии • 30

  • @parkkoon7074
    @parkkoon7074 2 месяца назад +9

    예전 오펜하이머 처럼 어디에 쓰일지 모르고 만들기만 하고 나중에 핵폭탄이 전쟁에 쓰이자 괴로워하고 정치적으로 휘말렸던 때와는 다르게
    자신이 만든 이론들이 나중에 사회에 미치는 영향에 대해서 고민 하는 모습에 대단하다고 느낍니다.

    • @parkkoon7074
      @parkkoon7074 2 месяца назад

      @@kmo7372 에잉? 오펜하이머 얘기를 모르나요? 실제로 히로시마 원자폭탄이 떨어지자 엄청 괴로워했음 정확히 말하면 핵에 쓰임새를 모른다기 보다는
      핵사용으로 인한 장기적인 영향을 몰랐던거죠 소련과 미국이 냉전 체제에서 핵 경쟁이 일어났거든요 원자 폭탄에서 더큰 파괴력을 가진 수소폭탄 개발을 한거죠
      인류 종말을 가져올까봐 불안해 했던거죠

    • @kmo7372
      @kmo7372 2 месяца назад

      @@parkkoon7074 그딴걸 얘기하는게 아니라, 오펜하이머를 이후 처사는 고려 못하는 병신마냥 묘사하는게 마음에 안들어서 딴지 건거에요.
      오펜하이머는 직접 일본에 투하하길 결정했으며, 투하 방식까지 직접 지시했어요. 더 이상의 전쟁을 멈추려면 슬프지만 필수적이라고 본 것이죠.

  • @goyobird
    @goyobird 2 месяца назад +19

    정혜진 기자가 전해준 기사

  • @ArianKim
    @ArianKim 2 месяца назад +15

    AI가 위험한것보다는 그걸 위험하게 활용하는 인간이 생겨날수있다는 경고가 더 맞을듯

    • @yoshihiro2221
      @yoshihiro2221 2 месяца назад +1

      AI가 더 위험함. 인간 상상력은 제한되어있거든

    • @user-ev7kw2cw1u
      @user-ev7kw2cw1u 2 месяца назад

      @@yoshihiro2221 이말도 맞지 착한 인간한테서 나쁜 ai가 나오지 못하리란 법은 없지

    • @xkl8481
      @xkl8481 2 месяца назад

      힌턴교수의 의도는 ai 자체의 위험성

  • @Saejang_Lazy
    @Saejang_Lazy 2 месяца назад +1

    다른 인터뷰에서는 제자인 일리야 수츠케버를 칭찬하면서 샘 올트먼을 우회적으로 비판했습니다. 오픈AI는 고삐 풀린 망아지 같이 개발한다는 비판이죠. 여튼 일리야도 독립 회사 차리고 거액 펀딩 받았으니 앞으로 생성모델간의 경쟁이 두고볼 만 합니다.

  • @yeschanchanchan
    @yeschanchanchan 2 месяца назад +4

    AI개발자가 받게된 이유는 인간이 받는 마지막 물리학상이기 때문이란게 학계의 점약임

  • @Sibal_KimJeunEun
    @Sibal_KimJeunEun 2 месяца назад +3

    인공지능 스스로가 묻고 대답하는 식으로 연구하기 시작하면 인류 발전속도는 순식간에 발전함

    • @RMSPROP
      @RMSPROP 2 месяца назад

      스스로 파인 튜닝을 한다고?

    • @Sibal_KimJeunEun
      @Sibal_KimJeunEun 2 месяца назад

      @@RMSPROP 구글 ceo가 인터뷰에서 저래 말함

  • @린-f4f
    @린-f4f 2 месяца назад +3

    위험성때문에 연구필요.
    근데 ai를 못 따라갈 경우~
    영화와 비슷한 일이 일어날까 겁나네요.
    학습하는데 보통 좋은내용보다는 안 좋은 사건사고들이 보도되니깐요.
    법율적으로 ai활용범죄에대해서 발빠른 처리가 필요하다고 생각되네요.

  • @jihyeonchoi3671
    @jihyeonchoi3671 2 месяца назад +4

    다들 불과 주어진 수십년이란 기간 안에 AI 발전 빠르게 못하면 역노화 못누리고 끔살당하는 것 알고들 계신가요?
    AI가 위험하다 느끼는 인간들은 결국 죽기 싫고 생존하기 위해서입니다
    그런데 AI가 위험하든 안위험하든 그 짧디 짧은 제한시간 안에 역노화까지 발전 못하면 어차피 당신은 수십년 안에 고통받다 저승가게 됩니다
    AI 발전 안하면 싸그리 죽을 운명인거 다들 알고들 있는 것인가요?

  • @1yonjae
    @1yonjae 2 месяца назад +1

    민주장 언론에서 김 빛내리 교수가 유력한 노벨상 후보라는 보도를 한 것 같은데, 고은 시인처럼 호남 인재 언론에 띄우기 작전이 아닌가 싶다. 고은 시인 노벨문학상 흐보 이야기가 10년 정도 지속되었던 것으로 기억한다.

    • @에라이-t9r
      @에라이-t9r 2 месяца назад

      한국말도 못쓰는데 뭔 노벨상이야 아가야

    • @olivas504
      @olivas504 2 месяца назад

      고은 대신 다른 호남작가가 노벨상 받았네요 그것도 아시아 여성최초!

  • @bongchankim4379
    @bongchankim4379 2 месяца назад +3

    위험한걸 개발한거지...

  • @무지의장막-x6q
    @무지의장막-x6q 2 месяца назад

    그냥 밑밥 까는거고 미국이 AGI만들때 까지 다른 국가들은 그냥 닥치고 하던거나 하라는 말 인데

  • @Inceptor_key
    @Inceptor_key 2 месяца назад

    원자폭탄 만들어놓고 원자폭탄 경고하고, AI 만들어놓고 AI 경고하고? 지금 정난치나고 있나? 혹시 자신들이 저지른 잘못을 미리 면피하려는 수작?

  • @yellow3466
    @yellow3466 2 месяца назад +5

    ai는 이득을 쫓는 구조에 특화 되어있다. 변연계와 같은 경고성 반응이 확립 되어 있지 않기에 인간을 위험 요소로 판단하지 않을듯 하다. 지금은 그냥 이득이 안되는 0 이란 값을 가질지도 모르는데 음의 수를 가지고 그것을 회피하려는 변연계적 신경망을 갖추게 되면 인간을 지워버릴지도 모른다.

    • @절레절레-e7q
      @절레절레-e7q 2 месяца назад

      시대흐름 못읽는 틀딱이 홍삼캔디 압수

  • @robberbabby5189
    @robberbabby5189 2 месяца назад +4

    노벨상 수상자가 하는말은 그냥 정답이야

    • @mugari123
      @mugari123 2 месяца назад +2

      '김대중'

    • @읅
      @읅 2 месяца назад +1

      @@mugari123어허

  • @shshwvs
    @shshwvs 2 месяца назад +2

    물리학자들은 연구보다 왜 고등학생들이 물리를 어려워하는지 그것부터 먼저 생각해보길

    • @가오오
      @가오오 2 месяца назад +10

      원래 물리라는 학문이 모두에게 적합한 것은 아닙니다. 맞지 않는 사람도 있죠. 고등학교에서는 다만 너무 수식적으로 접근해서 물리에 대한 호기심을 차단하고 있긴 합니다만 그것은 교육학자가 생각할 일이지 물리학자가 생각할 일은 아니라고 생각합니다.