Это видео недоступно.
Сожалеем об этом.

詐團最新武器!「AI 語音詐騙」攻陷全球,我們該怎麼辦?|志祺七七

Поделиться
HTML-код
  • Опубликовано: 15 авг 2024
  • 🕹️ 傳統與科技碰撞、讓復古與創新激盪,actto 美感機械軸鍵盤讓你全部擁有 🕹️
    台灣獨家!只在一起剁手平台👉 pse.is/57p2rl
    📌 機械軸體,每次打字都給你滿滿回饋
    📌 支援 Android / iOS / Windows / MAC 多元平台
    📌 有線 / 藍牙無線最多分別連接 1 + 3 台不同設備
    📌 自動睡眠模式,聰明省電沒煩惱
    輸入「shasha77」優惠碼,即日起到 9/30 (六) ,買就送 #雙模式無線滑鼠,快點去看看吧!
    #acttoTaiwan #actto美感機械軸鍵盤
    本集廣告與「actto Taiwan」合作播出;
    本集節目內容由志祺七七團隊製作,不代表「actto Taiwan」立場
    ------
    🌟 English subtitle (auto-translated) is available.
    👬 如有業務需求,請至官網瀏覽「服務方案與說明」:bit.ly/2ZCQ5Jh
    💪 成為七七會員(幫助我們繼續日更,並享有會員專屬福利):bit.ly/77member
    👀 體驗志祺七七文章版:blog.simpleinf...
    👀 購買黃臭泥周邊商品: bit.ly/2ZpclGS 💛
    ❤️ 訂閱志祺七七頻道: bit.ly/shasha77...
    ❤️ 追蹤志祺 IG : / shasha77.daily
    ❤️ 來看志祺七七粉專 :bit.ly/shasha77_fb
    🔥 加入志祺七七團隊: bit.ly/3pi8zrE
    【 志祺七七 Podcast 】
    🎧 Apple Podcast:apple.co/3sQ7jyH
    🎧 Spotify:spoti.fi/3Nu4jzH
    🎧 KKBOX:bit.ly/3sSRJlL
    🎧 RUclips Podcast 頻道:bit.ly/3PAd6Ca
    # #
    各節重點:
    00:00 開頭
    01:11 【actto美感機械軸】廣告段落
    01:50 到處都是 AI 語音詐騙?
    03:08 AI技術方便了詐騙集團?
    03:55 複製聲音超容易?
    04:53 科技公司的對策
    06:20 政府機關的對策
    06:56 我們可以怎麼做?
    07:55 我們的觀點
    09:09 提問
    09:21 結尾
    【 製作團隊 】
    |企劃:Leila
    |腳本:Leila
    |編輯:Wei
    |剪輯後製:歆雅
    |剪輯助理:ㄚ瑜
    |演出:志祺
    --
    【 本集參考資料 】
    → 「新型詐騙|AI語音以假亂真 扮家屬求救呃贖金」_星島新聞:is.gd/SWnM8v
    → “8 Best AI Voice Generators in 2023 (Compared)”_Christina Gwira - Elegant Themes:is.gd/pMv0xi
    → 「【2023超全】實用AI工具合集」_Echo Green - GitMind:is.gd/uqjs6g
    → “AI kidnapping scam copied teen girl’s voice in $1M extortion attempt”_Kathryn Mannie - Global News:is.gd/11a5ze
    → PlayHT:is.gd/ctdXdd
    → “AI Voice Cloner Can Copy Your Voice With Emotion”_J.L. Bernard - Typecast:is.gd/kCRvIk
    → 「【詐騙大百科】5 大常見電話詐騙總整理!教你招招擊退詐騙病毒!」_Whoscall:is.gd/7eo6Y1
    → “They thought loved ones were calling for help. It was an AI scam.”_Pranshu Verma - The Washington Post:is.gd/l27tWW
    → “Voice Deepfakes Are Calling. Here's How to Avoid Them.""_Matthew Wright and Christopher Schwartz - Gizmodo:is.gd/K9UwGU
    ※ 影片中部分影像素材來自 Shutterstock、Envato與 Midjourney 。
    \每週7天,每天7點,和我們一起了解更多有趣的生活議題吧!/
    🥁 七七仔們如果想寄東西關懷七七團隊與志祺,傳送門如下:
    106台北市大安區羅斯福路二段111號8樓
    🟢 如有引用本頻道影片與相關品牌識別素材,請遵循此規範:bit.ly/shasha77...
    🟡 如有業務需求需要聯繫,請洽:hi77@simpleinfo.cc
    🔴 如果影片內容有誤,歡迎來信勘誤:hey77@simpleinfo.cc

Комментарии • 306

  • @shasha77
    @shasha77  11 месяцев назад +32

    🕹 傳統與科技碰撞、讓復古與創新激盪,actto 美感機械軸鍵盤讓你全部擁有 🕹
    台灣獨家!只在一起剁手平台👉 pse.is/57p2rl
    📌 機械軸體,每次打字都給你滿滿回饋
    📌 支援 Android / iOS / Windows / MAC 多元平台
    📌 有線 / 藍牙無線最多分別連接 1 + 3 台不同設備
    📌 自動睡眠模式,聰明省電沒煩惱
    輸入「shasha77」優惠碼,即日起到 9/30 (六) ,買就送 #雙模式無線滑鼠,快點去看看吧!

  • @nelsonchan1304
    @nelsonchan1304 11 месяцев назад +61

    「了解自己最脆弱的部份,才有辦法防止被操縱和詐騙」
    這句話十分重要,現在我知道我絕對不會被詐騙到,因為我了解我最大的弱點
    就是窮

    • @user-hp1gr9ce1i
      @user-hp1gr9ce1i 11 месяцев назад +6

      窮 但是你還是有身體阿 笑死 遇到心中最軟的一塊你還是會砸鍋賣鐵的

    • @Itshufabo
      @Itshufabo 11 месяцев назад

      兄弟 你够强大

  • @LLENN0420
    @LLENN0420 11 месяцев назад +73

    在我家擁有一系列「防詐騙電話」步驟 👍
    ① 我家在 臺北市,如果電話開頭不是 02 的,基本能不接則不接 ~
    ② 如果是親友的聲音突然想要借錢什麼的,直接詢問該親友 姓名
    ③ 再來詢問 住家地址
    ④ 接著詢問 出生年月日
    ⑤ 如果該親友有政黨傾向,則問他是什麼顏色的政黨?
    基本上這些步驟 100% 結局是對面先掛斷 😂

    • @u3104562
      @u3104562 11 месяцев назад +7

      我跟家人討論過,假如遇到詐騙,可以用像是小時候講過的童言童語、之類只有自己跟家人瞭解的話當作暗號,來確定真偽。

    • @p.9227
      @p.9227 11 месяцев назад +9

      @@2x3x37又跑來檢討受害者
      怎麼不先去罵詐騙犯幹嘛沒良心要騙人

    • @orararararashuba4937
      @orararararashuba4937 11 месяцев назад +1

      ​@@p.9227啥都可以怪政府的人才可悲

    • @p.9227
      @p.9227 11 месяцев назад +1

      @@orararararashuba4937 那倒不如告訴我什麼東西不可以怪政府?
      納稅人繳稅給政府,有民生事務議題不找政府管難道要找神廟嗎?

  • @GiovannaSun
    @GiovannaSun 11 месяцев назад +25

    這個時候就是考驗親情的時刻,如果平常感情好,說到細節的地方就會有破綻,還有方言像是台語,現在的機器學習還趕不上很多方言。

    • @hui-honglim5216
      @hui-honglim5216 11 месяцев назад

      的確,只要夠親密,家人間總有自己人才知道的細節。

  • @user-ik3rn7iv6l
    @user-ik3rn7iv6l 11 месяцев назад +21

    讓我想到之前某篇報導:在台灣詐騙最多被判5年,但詐騙集團只要錢洗得好,出來你可以爽500年XD

  • @Peace-Yang
    @Peace-Yang 11 месяцев назад +69

    AI換臉 + AI語音技術,以後大家在各大影音平台上看到的影片、甚至是新聞,也不見得是真的了。

    • @LLENN0420
      @LLENN0420 11 месяцев назад +9

      ​​@@user-Listz史上最強之男
      一夕間 AI 換臉玩弄百位女性 ~
      最終還有很多 無能玉粉 (小孩佔多數)
      支持 小玉 並且希望 小玉 回歸 😂

    • @siwen-fe9dr
      @siwen-fe9dr 11 месяцев назад +3

      至少志祺是真的......應該吧

    • @Ryan-TW
      @Ryan-TW 11 месяцев назад +1

      就知道有小玉😂😂😂😂😂

    • @Peace-Yang
      @Peace-Yang 11 месяцев назад +2

      在疫情期間女王駕崩前,英國媒體製作了一支伊莉莎白女王的影片,
      這支影片目的是鼓勵英國人民共同勉勵、一起度過疫情,影片中女王喝下午茶,
      但整支影片就是由換臉技術完成,女王本人並沒有參與演出,但不講,你絕對不知道這是假影片。

    • @Ryan-TW
      @Ryan-TW 11 месяцев назад +1

      @@Peace-Yang 真的有這件事喔

  • @JesseKnight2000
    @JesseKnight2000 11 месяцев назад +80

    別懷疑,張雅婷也是AI

    • @user-ut9fy6dk4g
      @user-ut9fy6dk4g 11 месяцев назад

      ?????????????

    • @jeffkevin3
      @jeffkevin3 11 месяцев назад +3

      雅婷逐字稿啊

    • @zyn5899
      @zyn5899 11 месяцев назад

      .

  • @WonGZK
    @WonGZK 11 месяцев назад +100

    志祺要不要弄一期 不露臉
    (露也可以?)
    用AI讀稿 做個單盲測試
    看有沒有人會發現 ( ´・ω・`)

    • @yuan2344
      @yuan2344 11 месяцев назад

      現在AI連影像、手勢都能模仿了,可以去看lks的影片有介紹

    • @ohlarsh
      @ohlarsh 11 месяцев назад +4

      發現…(僞)志琪短期內更受歡迎。

  • @h1j41j41j4
    @h1j41j41j4 11 месяцев назад +11

    真的要開始準備防AI詐騙了,那一天用AI生成的打來視訊電話,在緊張的狀態下真的會很難辨認。

  • @tengzhi8780
    @tengzhi8780 11 месяцев назад +7

    我認為提高詐騙的警覺才是真的ˊ ˋ
    早期就算沒有AI語音,還是有人很不幸的被那些救我詐騙騙到

  • @dkc566476
    @dkc566476 11 месяцев назад +28

    將AI換聲用於詐騙的門檻還是有點高拉
    光是要對目標有一定程度的研究,那個時間成本就有點高了
    像是假冒親人,鎖定目標一定是從有公開影片的人下手,再去看這個人的親友有哪些,光是這個前置作業就比亂槍打鳥還要麻煩,除非這個人不僅拍了一堆影片,還能輕易地找到這個人的親朋好友(像是臉書好友可以公開看)
    AI換聲很便宜沒錯,但實際上要訓練出一個優質音檔並不是一個只有30秒的音檔就可以,那只是一個最低的下限,要訓練到讓人分辨不出來的音檔要包含很多抑揚頓挫聲音起伏,除非那30秒包含了各種抑揚頓挫,不然實際換聲會發現怎麼一直破音

    • @user-E04SU3XL3G
      @user-E04SU3XL3G 11 месяцев назад

      我想應該是多模型MIX出來的,他說的30秒確實不夠訓練出一個完整的模型,但如果只是用於電話詐騙就夠用了,方法也不難就是把救我之類的台詞跟目標的30秒聲音MIX在一起訓練,出現電子音在電話這種載體上是真的很難察覺,所以所有詐騙電話其實作的事情只有一件,那就是第一發看對方有沒有緊張,如果對方沒有緊張那就沒招了,因為當對方要求跟小孩核對隱私的時候詐騙集團一定辦不到,沒有這種能力的前提下他們所能做的,就是想辦法去製造"緊迫感"
      所以注意了,防詐騙最簡單的應對方式就是冷靜。

  • @nevermind-sl2vx
    @nevermind-sl2vx 11 месяцев назад +33

    AI的問題用AI解決, 在機器學習裡面有一個叫GAN的方法, 用一個生成者對抗檢查者
    既然AI被用來詐騙, 那我們就用AI來檢驗, 如果監聽到有問題的話就可以發出警告給其他親人, 讓他們來幫助受害者

    • @toshi2056
      @toshi2056 11 месяцев назад +4

      檢驗者是GAN訓練時的副產物
      但是目前表現最好的一些生成模型大部分用的都不是GAN
      訓練時不會有檢驗者的參與

    • @user-bob-pikachu
      @user-bob-pikachu 11 месяцев назад

      ​@@p.9227但是ai公司應該要負責開發檢查者,畢竟是他們的責任

    • @user-ud6ex7nb4t
      @user-ud6ex7nb4t 11 месяцев назад

      雖然不是GAN,不過拿現有模型訓練檢驗者確實是一個方向(正確率就不知了)

    • @qingmeijun
      @qingmeijun 11 месяцев назад +3

      理想:用ai查出ai。
      现实:人类经常通过不了ai检查。

  • @user-us4fg5tc6o
    @user-us4fg5tc6o 11 месяцев назад +5

    志祺說的沒錯,用暗號,對方是自己的家庭成員一定要知道暗號,就跟外島晚上不確定對方是誰要報暗號一樣😂暗號講不出來其實也可以無視他了/儘管他在電話那頭演的很逼真🤣🤣

  • @GiornoGiovanna0416
    @GiornoGiovanna0416 11 месяцев назад +24

    有朋友接過AI語音詐騙,聽說聲音跟語氣都一模一樣,就算對方是已經相當熟識的親姊妹也分不出來(真的被騙到錢了)

    • @user-wn6lc3hs1d
      @user-wn6lc3hs1d 11 месяцев назад

      中文?

    • @GiornoGiovanna0416
      @GiornoGiovanna0416 11 месяцев назад

      @@user-wn6lc3hs1d 越南文喔

    • @GiornoGiovanna0416
      @GiornoGiovanna0416 11 месяцев назад

      @@user-wn6lc3hs1d 對方是盜走臉書帳號用Messenger進行詐騙

    • @user-E04SU3XL3G
      @user-E04SU3XL3G 11 месяцев назад

      聲音一樣可以,語氣都一樣一定是當下誤判的,連我自己有在搞聲音AI的人都知道語氣要模仿超級困難的
      最近在幫一些英文、日文劇裡面進行中文配音訓練,AI能做的只有幫你把你的聲音轉成別人的聲音而已,語調還是自己的

  • @chao-chinglee2133
    @chao-chinglee2133 11 месяцев назад +5

    我覺得可以每天設定不同的口令,以確認對方是不是家人好像也不錯用吼⋯
    AI:爸,救我(哭聲)
    我:閉嘴,口令,誰?
    AI:⋯⋯⋯

  • @user-jf8sv6dc9t
    @user-jf8sv6dc9t 11 месяцев назад +15

    建議跟自己的家人討論一個密語,只要接到詐騙電話,就請那個疑似自己被綁架的家人說出密語,說不出來就說假的,我和爸媽在很久以前的時候就已經用我爸喜歡的動漫當作密語了

  • @blueguy1224
    @blueguy1224 11 месяцев назад +42

    說實話我一直覺得聲音的影響應該沒那麼大?因為在我小時候(大概1x年前吧),我奶奶就曾經接過很像我媽媽聲音的電話,最後是因為有機靈地問一些問題,對方回的得不清不楚才沒被騙。

    • @otis881
      @otis881 11 месяцев назад

      好聰明

    • @XD-nl1wl
      @XD-nl1wl 11 месяцев назад

      不是喔詐騙集團沒你想像的那麼爛
      聲音只是其中一個元素而已
      結合你透露的各資
      被洩漏的個資再加上聲音才是最恐怖的武器
      而且人類其實不是每個時段都智商在線的
      挑你可能比較累的時段打來也能增加成功率

    • @user-E04SU3XL3G
      @user-E04SU3XL3G 11 месяцев назад +2

      我高中的時候接到詐騙說我自己的小孩被綁架,接著就是哭鬧聲
      當時我心情很複雜,連女友都沒有是在我傷口撒鹽巴嗎?

  • @SamGib
    @SamGib 11 месяцев назад +5

    AI公司有幾個方法防止惡用
    一是限制上傳語音的噪訊比。只要音訊中有背景聲或音樂就拒絕使用。
    二是要求即時說出指定句子或字詞作認證,然後作聲紋對比,確保制作者與說話者一至。當然前題是犯罪者不能使用其他服務,比如字詞是以特殊編碼轉換而成。
    三是KYC。如同銀行要求公家信件或證件般,要求客戶(用戶)證明自己的身份,然後分配一個代碼。當制作新的音檔時,將代碼及音檔識別碼以水印寫入其中。

    • @wW-fd9jw
      @wW-fd9jw 11 месяцев назад +1

      好專業~推個

    • @user-ud6ex7nb4t
      @user-ud6ex7nb4t 11 месяцев назад

      加上更多規範認證確實能增加惡用難度,但感覺就算撇除人為失誤(掉以輕心、密碼洩漏、使用錯誤之類),現在技術上也很難達成避免技術本身被濫用
      一可以使用語音增強技術來降低噪音(確實也可以訓練模型分辨有沒有被處理,但一來正確率是一個問題,二來這樣還不如直接判斷是不是真人語音)
      二我認為對公司而言是最可行的,但開源的資源就比較難規範(我知道原題討論的是AI公司,但最近開源的工具使用門檻也越來越低了)
      三音檔加水印的技術我不太熟悉,但如果是以電話的情境來說,喇叭撥出再傳到電話麥克風後能否保留水印感覺也很有難度

    • @user-E04SU3XL3G
      @user-E04SU3XL3G 11 месяцев назад

      你的想法是好的沒錯啦,可是想跟你說一件事,有一大堆其他也是聲音AI的工具,且難度也不高喔...
      所以AI工具要馬用雲端的方式給人使用,出問題馬上停止服務(Chatgpt),不然只要變成網路上可下載的開源工具就幾乎沒法子了,現在顯示卡賣這麼好,其實很多民間使用者都在自己本地端使用喔

    • @bambooindark1
      @bambooindark1 10 месяцев назад

      前面兩點很聰明,沒想到有這些好方法

  • @superchat-hn2ri
    @superchat-hn2ri 11 месяцев назад +16

    也許 志祺也是一位AI

  • @seal_seal
    @seal_seal 11 месяцев назад +4

    如果这期志祺能现场演示一下AI语音能模仿多像就更好了。大家平时上网也要尽量保护自己的隐私,不过度在社交媒体曝光,同时有条件的可以根据用途不同设置多个电子邮箱和电话号码。

  • @OldSheepdogLover
    @OldSheepdogLover 11 месяцев назад +4

    可以在聲音內加入記憶片段代碼,加上註冊要求真實身份,通話時電信業者對AI語音識別後提示在手機通話畫面上,防止這類事情發生

  • @Blue_Lan_blue
    @Blue_Lan_blue 11 месяцев назад +21

    還有人害怕AI統治世界
    結果最可怕的還是人心⋯

    • @user-uz1fr8dk8x
      @user-uz1fr8dk8x 11 месяцев назад +1

      一直都是喔

    • @purplehj
      @purplehj 11 месяцев назад

      何況一點都不矛盾...研發AI的就是人類.訓練的資料就是人類

  • @x0982222
    @x0982222 11 месяцев назад +1

    任何陌生電話我一律建議,接起來後第一句話就說:
    OO縣(市)警察局第X分局您好,請問有什麼事情可以為您服務?
    目前遇到只要是詐騙或是推銷電話聽到警察局就自己會掛電話
    只有正常的單位才會繼續跟你做解釋

  • @user-nt6ur7cm5k
    @user-nt6ur7cm5k 11 месяцев назад +4

    如果這集用上半跟下半以真人跟AI模擬來讀稿做對比跟示範就完美了

  • @ursowrongwrongisaid
    @ursowrongwrongisaid 11 месяцев назад +12

    也許 AI連關於詐騙的工作都要搶
    詐騙集團好自為之

    • @user-mq7zp1iv5v
      @user-mq7zp1iv5v 11 месяцев назад

      詐騙集團:打不過就加入

  • @stewart3499
    @stewart3499 11 месяцев назад +3

    理想 : 我們來發明AI來幫助我們生活
    現實 : 我們來用AI詐騙別人

  • @OGC694XD
    @OGC694XD 11 месяцев назад +8

    科技始終來自人性,各種言行舉止都是人性的一環,無法杜絕無法根治。(攤手

  • @beatingstorm1792
    @beatingstorm1792 11 месяцев назад

    個人的防詐守則
    1.double check,重複檢查/確認,遇到電話一頭急著要錢,先等等,跟本人對答或直接掛斷電話再查詢。
    2.不管什麼手法的詐騙,最後都是要你填下付款資料,如身分證字號或銀行帳號密碼或信用卡資訊,對於要求填入這些內容的網站網址,請複製網址拿去GOOGLE確認,再怎麼藏都躲不過你拿網址GOOGLE後的結果。
    3.上述都只是語音電話或是網頁詐騙,投資型詐騙更為複雜難防,只能說投資請找有官方認證的機構自己玩。

  • @ewq789789
    @ewq789789 11 месяцев назад +9

    現在不用幻想心儀的女生,對我說喜歡了。
    只要用AI 合成就可以了!
    ......
    Q_Q...

    • @LossesDon
      @LossesDon 11 месяцев назад

      你快樂嗎朋友 🥲

    • @user-qo2yw3hb1c
      @user-qo2yw3hb1c 11 месяцев назад +2

      可以學畫畫,最高等級就是想要哪個就有哪個,但是都看淡了哈哈哈😂算了你加油吧我好懶ww

    • @user-cl3vq4qr5q
      @user-cl3vq4qr5q 11 месяцев назад +2

      不排除未來還有VR搭配AI可以用 人道毀滅人類的日子不遠了 堅持住阿 加油!!

    • @user-E04SU3XL3G
      @user-E04SU3XL3G 11 месяцев назад

      Q_Q

  • @tne01
    @tne01 11 месяцев назад +2

    4:36 以前的詐騙集團都要慢慢打電話假扮成各種角色
    我們又看到了某些人因AI而失業的案例?🤔

  • @henrypm5548
    @henrypm5548 11 месяцев назад +6

    我有接過我被綁架的電話😂

  • @leliang
    @leliang 11 месяцев назад

    法律這玩意就是沒出問題就不會增改
    AI還不會殺人就沒有人要規範
    那就只能看AI繼續拿走你的畫、用你的文章、複製你的聲音發展
    直到有人被AI害死為止

  • @JasonHuang66
    @JasonHuang66 11 месяцев назад +2

    語音詐騙還有一點沒說到,現在詐騙技術可以做到讓你通話手機暫時無法撥通電話,所以遇到電話最好求助他人手機進行確認

  • @WW43393
    @WW43393 11 месяцев назад +1

    簡單的說,AI可以被用,但要有良好的法規限制

  • @aromawhite8352
    @aromawhite8352 11 месяцев назад +14

    只能説科技真的是把雙面刃......

    • @tianlei999
      @tianlei999 11 месяцев назад +2

      一直都是這樣

    • @ursowrongwrongisaid
      @ursowrongwrongisaid 11 месяцев назад +1

      雙面刃這個詞聽起來真的超酷的

    • @starburstrose0211
      @starburstrose0211 11 месяцев назад +8

      有些武器在一開始發明時就不是用來傷害人的,例如炸藥的改良,本來是方便工程使用,被軍方拿去當武器,讓諾貝爾終生都愧疚不已。

    • @user-qo2yw3hb1c
      @user-qo2yw3hb1c 11 месяцев назад

      現在大家越來越只想賺錢已經再往弊端移動天秤了

    • @user-E04SU3XL3G
      @user-E04SU3XL3G 11 месяцев назад

      與其雙面刃,雙面膠在使用的時候不管怎樣都會有至少一面黏到我的手指真得挺麻煩的

  • @user-no-chemistry-Chen
    @user-no-chemistry-Chen 11 месяцев назад +1

    銀行內部外播的電話跟播入的本來就不一樣啊!(常常聯繫銀行辦貸款)

  • @user-zo6nu8gv2e
    @user-zo6nu8gv2e 11 месяцев назад +5

    每次就很想提出這個疑問 詐騙電話真的不能靠舉報讓電信業者把他們的資料弄出來 然後抓起來嗎?
    還有就是一子有電話都一聲就掛斷的是不是在收集我們的聲音 以至於我每次接電話都要等對方開口,我才要應答

    • @mset6706
      @mset6706 11 месяцев назад +2

      之前听别人解释过,这种很可能是bot,为了确认某些电话号码是不是没人用的死号,就用bot自动化批量拨打。一般这种举动是为了过滤出有价值的号码,再卖给销售团队、诈骗集团等等(会轻易接通陌生号码的人受骗等的机率一般也更高)。
      至于电信业者的那个问题,我也很想知道为啥,有的国家可能是因为个资保护法吧?不过技术高明一点的诈骗集团其实还是可以利用被木马入侵的普通人手机去拨号、发短信之类的……
      现在AI技术这么发达,也不排除你说的新用法会真的出现,不过单靠一声“喂”、“你好”就模拟出逼真的声音模型还是难度极高,毕竟那样推算不出用词习惯、某些字眼的特殊发音习惯等等……唉,诈骗手段只会越来越多、越来越难搞啊……

    • @GBR9794
      @GBR9794 11 месяцев назад

      @@mset6706 重點是社交平台吧?把個人生活丟在網上就是自找麻煩

  • @user-ux5ls5wk1g
    @user-ux5ls5wk1g 11 месяцев назад +3

    只好接電話時先對暗號了

  • @Moon_cake92
    @Moon_cake92 11 месяцев назад +1

    前幾天我大舅接到一通AI電話,說聲音跟我很像,然後說我換了號碼要跟他要LINE的ID要加好友..(我大舅敘述聲音一模一樣,語調也是..
    但當時我在上班,加上我不知道我大舅的手機號碼....
    最後是問了,只有雙方才知道的問題來分辨是否是本人...

  • @bunnytom4866
    @bunnytom4866 11 месяцев назад +1

    不用AI 也都很猖狂 我還是支持AI功能普及,能幫助語言障礙和無法發聲的人,有辦法用聲音溝通,但我不支持做犯罪的事. 沒有遇過沒碰過的詐騙.打電話給孩子還有對自己家人有信心

  • @williamliu12
    @williamliu12 11 месяцев назад +2

    看到這篇莫名想到之前有一名實況主小玉的換臉事件,以後的A片是不是可以聲音長相兩不誤了? 想看誰就看誰,真有點嚇人

  • @zpho3268
    @zpho3268 11 месяцев назад +1

    一年可以騙好幾億,但在監獄折10年的蓮花、紙袋、流水線,出來就會怕再被抓回去,而且關之前使用的手法可能無法適用於出獄後的年代,此時刑期成本大於獲利,再犯率風險太高減少再犯率,頂多用沒被查到的贓款小金庫錢滾錢,比起越做越大,搞不好更容易見好就收?

  • @NeverMemory
    @NeverMemory 11 месяцев назад +1

    比起AI詐騙,像是志祺七七這種公眾人物反而更需要擔心AI生成會對大眾造成的影響,尤其是在選舉前後.

  • @ycchen5278
    @ycchen5278 11 месяцев назад +1

    其实可以的,在生成的声音里添加声音水印 ,这样录音就可以确定了

  • @user-E04SU3XL3G
    @user-E04SU3XL3G 11 месяцев назад

    我自己就用過聲音類型的AI技術,是什麼不能說但不是現行公司開發的是另外幾種技術,就以現在的技術來說算是堪用但不完美的狀態,一般電話音質這種絕對是綽綽有餘,但如果要靠聲音的AI達到製作某歌手聲線的HI-RES檔案就辦不到。
    也因為這樣,最終這種要說產業門檻進不去但對於一般人來說又能用的位置,不就是給犯罪分子使用了?
    不只是聲音,生成式圖片AI直接先靠偽造真實照片去騙人,且這遠比詐騙電話還要猖獗,只能說這些公司當初發布之前應該要先知道自己會帶來什麼後果,被拿去改造先不說,很多都只是正當使用就可以開始騙人的至少當初要想到而不是等事情發生才在考慮彌補方法。

  • @user-ir5bx5zi7l
    @user-ir5bx5zi7l 11 месяцев назад +76

    之前和家人就有討論過這個議題,最後討論出來的結果是弄一個密碼,文字數字都可,就當是給大家一個建議

    • @user-uv1os5dp7t
      @user-uv1os5dp7t 11 месяцев назад +31

      其實只要講一件彼此知道的「黑歷史」就行😂

    • @user-ir5bx5zi7l
      @user-ir5bx5zi7l 11 месяцев назад +5

      相較之下比較麻煩吧!

    • @user-jf4of8ty1f
      @user-jf4of8ty1f 11 месяцев назад

      @@user-gy9fj3op9d 這只能用1次,下1次又要換另1種方式,每換1次AI就多收集到1個資料,久了,汝家就沒秘密

    • @user-jf4of8ty1f
      @user-jf4of8ty1f 11 месяцев назад

      @@user-uv1os5dp7t 這只能用1次,下1次又要換另1種方式,每換1次AI就多收集到1個資料,久了,汝家就沒秘密,用pass word加好,文字數字混用,破譯機率低

    • @anyu-lol
      @anyu-lol 11 месяцев назад +29

      想想對方在那邊哭爹喊娘的時候 突然說 你麥當勞最喜歡吃什麼套餐

  • @ShaqTheDrifter
    @ShaqTheDrifter 11 месяцев назад

    我媽前幾天接到外婆的電話,電話另一端的外婆一整個7pupu一直在吵說什麼接到另一個親戚的電話來要錢,好像差點被騙錢吧。重點是那個親戚也沒有在媒體業檯面上露聲之類的,也不知道有沒有在社群平台上洩漏出自己的聲音供ai模型學習,但是只能說這種東西台灣已經出現了。很恐怖。

  • @user-gh9ns7ch7x
    @user-gh9ns7ch7x 11 месяцев назад +3

    當個月光族 就不怕被騙了

  • @royal2730
    @royal2730 11 месяцев назад +2

    現在就算統神突然說轉戰歌手並推出各類cover我也不意外(

  • @djjsdjf7679
    @djjsdjf7679 11 месяцев назад

    不認識的電話拒接我都是這樣,有時候真的無聊會接起來聽一秒在掛掉😂

  • @雪龍
    @雪龍 11 месяцев назад

    不得不說我爸真的是未雨綢繆到極點
    三十年前就訂好了全家人的暗號
    以及很幸運的至今沒有用過🤣

  • @ranlin08
    @ranlin08 11 месяцев назад +3

    如果像現在的影音素材網站加上浮水印一樣的方式,規範業者在使用服務的文案或是產生的語音裡面加上「這個是AI」或是「present by XXX」,不知道應沒有機會多少防範到一些惡意使用...

    • @user-ericshen19555
      @user-ericshen19555 11 месяцев назад +1

      把頭尾剪掉就好了啊 不用10秒

    • @ShaqTheDrifter
      @ShaqTheDrifter 11 месяцев назад

      有些ai聲音模仿服務會在模仿的音訊檔案裡偷偷加一些人類聽不太到的低頻聲段,讓警方拿到詐騙聲音模仿音檔時能給ai公司分析看看有沒有自家軟體在模仿時偷偷埋的一些聲音來暗示這個音檔是假的

    • @purplehj
      @purplehj 11 месяцев назад

      就像浮水印只是防君子

    • @user-E04SU3XL3G
      @user-E04SU3XL3G 11 месяцев назад

      一山還有一山高,完全制止是不可能,不過這不代表兩手一攤,我是支持該做點什麼去增加"詐騙成本",儘管讓當初想詐騙的人打消念頭也是好的,就跟腳踏車上鎖概念一樣

    • @tomsmith1803
      @tomsmith1803 10 месяцев назад

      social engineering

  • @user-bs5ow3hu4e
    @user-bs5ow3hu4e 11 месяцев назад +1

    對於新技術的發明,用來詐騙的速度遠比我們接收新資訊的速度還更快

  • @binladan911
    @binladan911 11 месяцев назад +2

    詐騙真的超級多,臉書和ig充斥著股票投資詐騙,現在又有AI詐騙,之前說要立法管理就被罵翻,當時有好好討論法案內容不就好了?

  • @jeffkevin3
    @jeffkevin3 10 месяцев назад

    哭了,做語音 AI 在臺灣找不到工作,企業不重視詐騙集團卻很重視…… 😢

  • @Youquan99
    @Youquan99 11 месяцев назад +2

    这集真的要分享大大出去 ,提高警惕最好。以防万一

  • @jtim515
    @jtim515 11 месяцев назад

    為啥每次都要事後才要求政府修改法律,就不能在發表前先與政府討論嗎?任何科技都有可能變成犯罪工具,現在才開始補救是要等到受難人多一點比較好採樣嗎?

  • @l7i7k7e7
    @l7i7k7e7 11 месяцев назад

    早就猜到會這樣
    而且我在家裡面也已經安排好
    真的被綁架的話要講暗號
    這暗號是家人之間面對面說好的
    不存在網路上
    詐騙集團可以利用社群媒體取得我家人的聲音影像
    讓AI去模仿學習
    但不可能知道我們家人之間真的被綁架的代號
    我是真的滿想接到這種詐騙電話
    陪他們玩一玩

  • @a4027100
    @a4027100 11 месяцев назад

    或許公司可以設定成每句開頭或結尾一定要說出: 我是AI. 這樣的答覆詞

  • @Squidelement
    @Squidelement 11 месяцев назад +1

    那台灣 比較先進.....還沒有AI的時候就已經可以有一樣的聲音來詐騙了.....

  • @user-zm9hv4ox6x
    @user-zm9hv4ox6x 11 месяцев назад +6

    所以現在影片中的志祺是真的嗎

  • @Talia778real
    @Talia778real 11 месяцев назад

    B 有有有 再怎麼騙都是那些爛招😂😂😂

  • @khaichern
    @khaichern 11 месяцев назад +1

    很簡單啊,不接任何電話就好啦。有什麼事請傳簡訊

  • @ItIsMimmyLo
    @ItIsMimmyLo 11 месяцев назад

    如果有個技術能強制電話顯示Ai圖示 提醒民眾該聲音經過偽裝 那可能會好一些
    而民眾也該聰明點 套一點話 問個私人生活經歷 如果對方吱吱嗚嗚 那就能識破了

    • @Abc-md1jl
      @Abc-md1jl 11 месяцев назад

      無法偵測出的東西要怎麼強制顯示

  • @nekochino3634
    @nekochino3634 11 месяцев назад

    請問許伯簡芝被抹黑甚至被惡意檢舉到黃標的事什麼時候要做
    或是也想了解一間資本50萬的公司要怎麼拿到上億的標案
    拿過政府標案的你們一定很了解吧

  • @BruceChang2006
    @BruceChang2006 11 месяцев назад

    講到電話暗號就會想起魔鬼終結者二那橋段跟梗圖~

  • @FaiBroadcastChannel
    @FaiBroadcastChannel 8 месяцев назад

    第一個因為AI 而裁員的地方- KK園區

  • @user-hx8bo2rd9y
    @user-hx8bo2rd9y 11 месяцев назад

    這方法很快就會引進台灣
    整合變聲器之類的
    聲音破綻會更少

  • @user-ts6fl3no5e
    @user-ts6fl3no5e 11 месяцев назад +1

    可以用AI模仿喜歡的人的聲音說她喜歡我了😢

  • @joanneaka9470
    @joanneaka9470 11 месяцев назад

    看到這個我想起香港有銀行打電話處理事項會用到聲音認證 開通過這項服務的人快去取消是不是比較好o.o

  • @user-zj5zv9fh9g
    @user-zj5zv9fh9g 11 месяцев назад +1

    你們甚至沒有發現,面前的志祺也是用AI做出來的影像+聲音XD (誤(?

  • @comeamib
    @comeamib 11 месяцев назад +1

    語音AI讓我有大膽的想法😆

  • @user-uz1fr8dk8x
    @user-uz1fr8dk8x 11 месяцев назад

    我們這行也是 很講求進步與效率的🫠

  • @eddiekuo9836
    @eddiekuo9836 11 месяцев назад +7

    台灣人表示:我們終於有東西領先美國好幾年了!

    • @guests2007
      @guests2007 11 месяцев назад

      台灣哪有使用AI的詐騙?電話、簡訊的詐騙美國也有。

  • @parkertotoro3661
    @parkertotoro3661 11 месяцев назад

    台灣的反詐騙其實真的做得比很多國家好了,加拿大每天至少都會接到2~5通詐騙電話或是簡訊,甚至現在更扯會利用隨機交友或是電話來加你的社群帳號。

  • @devilmeow234
    @devilmeow234 11 месяцев назад

    還沒接過這種偽裝聲音的類型呢~基本上接到的都是裝熟或沒繳費的類型

  • @foodchi314
    @foodchi314 11 месяцев назад

    能不能從匯款的銀行或金融機械帳號下手?一般銀行帳號要有身份證明才能開設。
    如果要你匯款到海外銀行帳戶就要聯系親友再確認。

  • @yuxi
    @yuxi 11 месяцев назад

    想當年 綁架集團是用盡手段抓到你
    現在 都是用盡手段模擬你的聲音

  • @user-cp1pr7io4n
    @user-cp1pr7io4n 11 месяцев назад

    Deep Fake,最近不可能任務也有 Show 語音這招。

  • @HitherKing
    @HitherKing 11 месяцев назад

    視訊通話最安全

  • @bagana100
    @bagana100 11 месяцев назад

    利用工具做壞事的永遠都是人,處罰AI公司叫做本末倒置

  • @User-Pro-OWO
    @User-Pro-OWO 11 месяцев назад

    10年前就接過這種電話了,一開始也嚇一跳

  • @tong7536
    @tong7536 11 месяцев назад

    可以看別的,或者小心一些去避免

  • @Billest1987
    @Billest1987 11 месяцев назад

    想到海賊王阿拉巴斯坦的記號 XD
    現在人人都可以當馮克雷了

  • @user-nt2tv8je5h
    @user-nt2tv8je5h 10 месяцев назад +1

    誰說ai不能賺錢
    這不就賺爆了嗎

  • @leekwailam
    @leekwailam 11 месяцев назад

    AI公司有沒有可能變成像銀行那種實名制去防止詐團?

  • @YT---BAKAYARO
    @YT---BAKAYARO 11 месяцев назад

    以前有接過詐騙電話 差點被騙個資 打165求證就解決了

  • @BewildeRic1102
    @BewildeRic1102 11 месяцев назад

    我看到是陌生來電我都不接,就算是認識的我也不太想接,有點接電話恐懼

  • @user-sz7zh6yo2k
    @user-sz7zh6yo2k 11 месяцев назад

    台灣已經出現了XD
    台通的主持人的家人在半年前已經是受害者

  • @liberchiang8010
    @liberchiang8010 11 месяцев назад

    現在這個影片,就推個盧燕俐的投資影片廣告給我,語氣聲音常用詞就跟本人及其像,youtube一如往常的爛,收錢完全不審廣告。

  • @ohlarsh
    @ohlarsh 11 месяцев назад

    我很習慣…與古AI連線以後就開始語言訓練了。
    古AI很完善的模擬敵手的技巧
    同時在對方使用技能時解說受者可能的影響。
    讓受訓者體會自身的抗性等級。
    我有一條"律":非當事人自身同意,該週遭AI設備不可與當事人語言交談。
    當事人可以提告該設備營運法人及相關支援者求償約500萬以下(台幣)100萬以上。
    可以立即退出,但有緩衝15分鐘。
    可以加入但要6個月以上登入授權時間且無法使用全部功能。

  • @Elsa1446
    @Elsa1446 11 месяцев назад

    直接不接陌生來電

  • @trainlooper
    @trainlooper 11 месяцев назад

    👽平常就要先約好電話暗號.... 例如: 這個電話已經暫停使用, 請查明後再撥 ~~~~ 📞hello , 有人在家嗎 ?

  • @riley_0975
    @riley_0975 11 месяцев назад

    現在詐騙集團對個資掌握這麼詳細嗎
    要知道你是誰然後打給你家人
    其實很恐怖欸

  • @dsabill555
    @dsabill555 11 месяцев назад

    我覺得法律規範 所有AI公司都要有暗號
    例如只要有人問他你是不是機器人
    那一定要回答 是的
    這在程式裡面寫死一行死邏輯
    不難
    這樣應該就可以解決了?

    • @user-ud6ex7nb4t
      @user-ud6ex7nb4t 11 месяцев назад

      詐團可能只播放部分的生成對話,就算是真的綁架應該也不會讓你跟被綁的沒有限制亂聊吧,比如只讓你聽求救聲之類(當然我不是專業綁匪,歡迎專業的補充更正

  • @alwan1980
    @alwan1980 11 месяцев назад

    志祺承認吧,你的podcast...

  • @tsukiruriuwu
    @tsukiruriuwu 11 месяцев назад

    lmao 還好從來沒有接電話 就像是那煩人的電信業者電話

  • @jennytsuei8293
    @jennytsuei8293 11 месяцев назад

    今天的聲音好像忽大忽小 我測試我的耳機是沒問題 志祺再留意一下

  • @user-fq2tx9kd9n
    @user-fq2tx9kd9n 11 месяцев назад

    天下沒有白吃的午餐跟無中生有的事情,就不容易被騙

  • @9996472
    @9996472 11 месяцев назад +7

    很簡單啊 在台灣綁架一率是詐騙 ,詐騙就能拿到錢了 為什麼要搞那麼麻煩 去綁人?而且打電話你一天可以騙幾十個人,綁架你搞好幾天才綁一個人,還不確定能不能拿到贖金,罪還重很多,詐騙幾乎都關沒幾年,為什麼要做綁架這種吃力不討好的事?

    • @cuxan1496
      @cuxan1496 11 месяцев назад +2

      綁架一次錢多,詐騙是很多次小錢

    • @9996472
      @9996472 11 месяцев назад +2

      @@cuxan1496 詐騙跟綁架都是勒索一樣的贖金好嗎 為什麼覺得詐騙就會要比較少錢啊XD 而且重點是罪差很多 詐騙關幾年就出來了 綁架是重罪耶 可以判到死刑 無期徒刑的

    • @cuxan1496
      @cuxan1496 11 месяцев назад

      @@9996472 你都跑去綁人了會只要個幾千幾萬嗎?

    • @cuxan1496
      @cuxan1496 11 месяцев назад

      @@9996472 然後綁架死刑?殺人都沒死刑了你是哪國法律