Hi Guys, semoga materinya berguna ya, Rangkuman: 1) AI di Konteks komputasi PC = Workload Komputasi, ada yang ONLINE, ada yang OFFLINE/local/on-device. Workload AI umumnya terbagi ke Training dan Inferencing. Training = Membuat Model. Inferencing = Eksekusi/Menjalankan Model. Workload AI Consumer umumnya ada di INFERENCING. Workload AI ini bisa saja jalan di CPU, tapi umumnya akan lambat. Ini bisa dibantu akselerator macam GPU atau NPU. 2) NPU = AI Accelerator Sebuah dedicated unit spesifik untuk perhitungan AI, umumnya TERPISAH dari CPU dan GPU. TAPI prioritas utama NPU BUKAN performance/throughput seperti GPU, melainkan NPU dibuat untuk EFISIENSI DAYA / POWER EFFICIENCY, Melakukan tugas AI dengan power seRENDAHnya. 3) Saat ini tidak usah terlalu pusing dengan rating TOPS. TOPS dari NPU tidak selalu sejalan dengan kapabilitas/fungsi, karena ada faktor SOFTWARE. TOPS itu juga ada yang ditulis untuk KESELURUHAN CHIP, bukan hanya NPU saja. Kadang juga rating NPU TOPS ini tidak spesifik ditulis untuk data type apa yang dieksekusi (10 TOPS INT8 tidak selalu bisa dianggap sama dengan 10 TOPS FP16 atau 10 TOPS INT4) Carilah hardware (NPU/GPU) yang BISA dimanfaatkan banyak software/aplikasi AI Karena hardware kencang tapi nggak dipakai, ya nggak banyak faedah. Catatan: Ini penjelasan NPU diambil dari sudut pandang prosesor Intel Core Ultra, tapi karakteristik NPU secara umum bisa mirip dengan chip vendor lain (macam AMD NPU 'RyzenAI' Qualcomm Snapdragon Elite X Hexagon NPU, dan Apple Neural Engine)
@@carbon_1264 GPU RTX, berasumsi ini maksudnya kelas RTX 3050 ke atas, itu dari sisi performa, umumnya akan jauh di atas AI di Core Ultra 7 155H yang ada di sini (baik GPU dan NPU).
Terimakasih untuk ilmunya bang. semoga lebih banyak video seperti ini. penjelasan panjang jelas dan ga ngebosenin. ditunggu video terkait AI selanjutnya
@@carbon_1264 NPU di Core Ultra itu dibuat atas nama efisiensi daya sih, IGPnya relatif kencang untik AI, tapi throughput-nya masih kalah kalau dibanding sama 3050.
Untuk kalian2 yang baca kolom komen dan baru ngeh soal ini. Kalo pakai chatGPT gretongan, masih versi yang lama. Masih versi yang belom canggih, dan masih pakai database tahun 2021. Udah cukup buat mulai tanya2 basic. Tapi lu mesti detailin lagi lebih lanjut searching sendiri. Udah ada versi baru yang bisa lu coba trialnya beberapa minggu, dan kalo bayar lu bakal dapet bonus bisa pake Dall-E. Lalu bisa bantu coding beberapa hal basic. Apa lagi kabar awal tahun yang bilang sudah ada si SORA yang bisa generate video. Tool ini berguna banget, tapi masih ada beberapa detail yang masih menjadi masalah yg mesti lu hindari. OpenAI masih bisa melakukan kesalahan (ya iya lah) Tipe kesalahannya itu di bagian detail, jadi misalnya lu nanya masalah PC part, ChatGPT bakal ngasih beberapa pilihan. Dia kasih pilihan dengan percakapan yang meyakinkan, namun ternyata setelah di check beberapa kali, beberapa komponen PC yang dia saranin nggak kompatible. Di kasus yang gw coba, dia saranin AM4 CPU ke AM5 socket mother board. AMD socket udah lumayan mendetail dalam pemilihan PC part, dan ChatGPT belum ngecheck semendalam ini. Tapi kalau mau nanya beberapa konsep basic seperti apa itu RAM, apa itu, MOBO, apa itu, CPU, ChatGPT bakal menjelaskan cukup baik. Bahkan cukup mengerti sampai nolongin mana yang di upgrade dahulu kalau butuh ngerjain task tertentu (geming, render, atau video) di PC yang mau di upgrade. Dia juga masih nyambung pas ngomongin generasi DDR, jadi masih ngerti part2 PC DDR5 dan DDR4. Tapi, ya itu, data internet di tahun 2021. Jadi barang2 baru di AM5 dan DDR5 belum masuk ke komputasinya dia. Untuk sekedar ingin nangkep konsep, atau mau denger penjelasan singkat mengenai sesuatu, gw selalu tanya ke Abang Jipiti. Nanya ke Mbah Google rada repot karena banyak yang spam SEO buat bisnis mereka sendiri. Jadi gw gabungin si Abang dan si Mbah. Minta si abang jipiti nerangin konsep, dan gw search detail ke Mbah gugel. BTW, udah ada beberapa counter tool untuk ngecek sebuah essay itu hasil ChatGPT atau nggak. Jadi buat kalian yang mau minta jipiti ngerjain tugas kuliah loe, ada cara buat ngedeteknya. Hati-hati. Ini tools buat nolong lu kerja, bukan buat kerjain kerjaan loe.
Intel & AMD : Ngasih NPU buat "AI" biar keliatan keren di slide solving komputasi ai kompleks dan marketing purpose Realita : Best i can do is only background blurring, dan image upscaling dan hal remeh temeh lain,take it or leave it!! (utk saat ini) 😂
@@rizkman ngakak cik hahahahaha stable diffusion aja masih blm support NPU kocak yg sok tau disini tu ya elu aduh kalo gue sih malu ya komen kek lu disini 😂
Nvidia : cari untung gede jual VGA untuk train Ai semahalnya "ini VGA 489 juta per satuan, murah banget" Perusahaan: invest milyaran hingga triliunan beli VGA mahal Nvidia buat train model ai mereka Konsumen : ada NPU semoga banyak fungsi Ai yg murah / gratis Perusahaan : untuk balik modal, bikin/integrasi software premium mereka dengan fungsi Ai, dijual sistem kredit/subscription yg proses nya masih dilakukan di server mereka "minta murah, memangnya duit moyang lu" Konsumen : bicara negatif NPU karena fungsinya terbatas Facepalm
@@saialexander1873 haha masih ae lu berusaha kontra ama gw, lucu nya lu ngebela NPU, ya kali NPU mau lu buat training ya gak kuat lah dan juga fungsinya baru buat remeh temeh doang dan jadi marketing gimmick doang. *Facepalm*
Seneng sekali ada video ... Setelah sekian lama mas jonathan review dan over clock CPU dan GPU ...sekarang bahas NPU mudah2an besok bisa Overclock NPU atau misalnya ada NPU dedicated... Semoga ke depan Bisa Rutin BAHAS NPU Juga
Investasi hardware Ai mahal karena Nvidia nyari profit gede, cuma fungsi Ai remeh temeh yg bakal didrop ke npu. Fungsi Ai yg penting masih hanya akan lewat software mahal, server side butuh internet dengan sistem kredit/subscription yg mahal untuk menutup biaya invest & operasional. Gegara kerakusan buat beli jaket kulit baru
peran intel openvino di music separation gila sih, saya coba pc di pc i5 12500 + GTX 1660 Super, pas rendernya pake GPU, bbrp x crash, dan hasilnya lumayan lama, dilagu yg sama pas render pake igp intel bawaan cpu nya, ngga crash dan lebih cepat 😅😅
bayangin yah ada laptop / tablet keluaran pabrik udah di instal LLM di dalemnya, dah full sama asistent agent dan bisa jalan offline, tanpa internet bisa di ajak ngobrol, suaranya yg kawaii, wkwkwkw
buat pribadi intinya untuk sekarang pemilihan part pc baik gaming atau editing tetap menggunakan metode tradisional, cukup nyari cpu gpu kencang aja daripada yg ber-embel ai. terima kasih 2sks paginya pak lurah
Correct - kalau nggak ada kebutuhan software/workflow AI khusus punya GPU kencang (apalagi yang modern, punya AI Accelerator) itu sudah lebih dari cukup.
What I worry about is that after the big tech companies use their maximum power to push AI technology and to train their large datasets, they are now trying to inference their trained models into our consumer products. They need to deploy what they have trained before. What if your computer has it's own will, it just more terrifying than watching a horror movie since it can run in background with low power
Sekarang emang teknologi AI sedang dalam tahap pengembangan yang masih... penggunaanya juga masih simpel, tapi potensi yang di tawarkan luar biasa... bagaimana dunia virtual dan dunia nyata bisa lebih dekat lagi... Sebagai orang awam, menarik untuk melihat perkembangan kedepannya...
mantep pak dosen, penjelasan nya, klo dgr dr penjelasan pak dosen berarti laptop ai gen hebat juga yah GPU nya udh AMD Radeon 780M + sdh ada NPU nya jadi bs main di low watt pakai npu, high watt pakai gpu nya.
Ya itu akan berguna kalau softwarenya mendukung sih (780Mnya terutama), saat gw ngetik ini, NPU-nya AMD itu kencang di spesifikasi, bukan di aplikasi :(
AI berguna bgt buat kerjaan yg kompleks seharusnya, tpi kalau hanya untuk fitur ringan dan sengaja dibatasi untuk offline boleh sh masuk laptop/PC, semacam pencarian data berdasar warna, nama file yg lebih deep, artificial design semacam ganti BG foto, dalam game mungkin load asset yg lebih baik biar FPSnya stabil, tpi untuk konteks yg berat online lebih masuk akal karena fasilitas server yg mumpuni
disisi gaming harapan kedepannya NPU bisa jadi opsi untuk generate model wajah dan postur tubuh npc biar lebih variatif dan ngk ketemu lagi npc kembar siam, jadi nambah imersif ketika main game apalagi gamenya open world macem GTA
Bentar, gua baru sadar bang Alva Gw inget waktu amd Indonesia launching ryzen 7040 di indo, mereka pamer NPU ryzen 7840HS mereka 10 TOPS, cuman di era itu ga ada yg mau peduli soal NPU Lanjut intel rilis ultra 7 155h, intel marketing 34 TOPS, di sini gw liat wah amd kena bantai ni intel full AI bahkan MSI claw bukan nya pamer performa malah pamer AI Terus amd langsung refresh 8845HS punya NPU 16 TOPS, total 38 TOPS sampai video ini rilis gw ga sadar kenapa angka spec amd ada 2, gw pikir palingan gimmick belaka dan NPU memang ga peduli soal TOPS, toh yg AMD jauh lebih efisien pikir saya Ternyata waktu liat video ini, gw baru sadar intel NPU ternyata cuman 11 TOPS, hanya leading 1 TOPS dari amd tapi marketing NPU mereka lebih sadis, gw aja ga sadar 34 itu total maksud nya cpu+gpu+Npu, apa lagi awam 🙏
Dan makanya gw agak2 'jengah' sama specs dari TOPS, walaupun ya untuk vendor, ini nilai marketing yang enak buat digoreng :) btw, Mau versi overthinking yang di-cut dari video ini? (Mentahan 1 jam 10 menit btw wkwkwkwk) TOPS itu tidak spesifik ke operasinya apa. TFLOPS itu (dulu) asumsinya Single-precision FP32 operation, walaupun lama2 ini bisa geser ke FP16. TOPS itu bisa macem2. Bisa FP16, FP8, INT8, INT4 dkk. Dan itu totally beda artinya, dan aplikasi/API/Framework apa yang bisa pakai lower precision data type itu. Lalu TOPS di beberapa NPU (macam AMD RyzenAI) itu bisa di'partisi' jadi beberapa bagian/stream, misal amd itu bisa jadi 4 stream x 2 TOPS buat jalanin model beda2 misalnya. Belum lagi TOPS/TFLOPS itu HANYA dihitung pada peak operating clock cycle. Sedangkan unit NPU/GPU dkk tidak selalu akan operating pada peak clock cycle, bergantung komponen lain/power limit chip. ..dan yang gw sebut di atas itu ada kali 5-8 menit, makanya diilangin di video ini wkwkwkkwkwwk
Hewo sir, bisa coba Phi-3 lewat ONNX + DirectML atau OpenVINO? Kebetulan docs-nya sudah dirilis di Community Blog Microsoft dari 21 Mei. IMO text generation lebih kepakai dibanding image generation/audio segmentation/ai upscaling. Sebagai pembanding mungkin bisa diadu sama M1 atau M2 jalanin Phi-3 GGUF (yang fp16 biar adil) pakai Metal. Cheers ✌
Ini baru based ilmu AI loh 🤣 Alhamdulillah vga 3000 series support AI jadi game2 yg support AI sdh aman dan bisa dinikmati 😊 Btw bahas jg AI utk game kayaknya menarik utk dibahas mulai dari rtx 2000 series bg 😊🙏🏼 Kalau AI di pc rumor2 nya rilis di intel arrow lake (gen 15) mungkin worth it sih upgrade dari intel i3 gen 10 ke i3 gen 15 🤣
makasih infonya, masih ragu beli laptop yang ada npu nya karena hampir nggak ada benchmark untuk ngetes npu nya di software ai kaya stable diffusion. trus juga kebanyakan software ai masih bergantung sama CUDA nya NVIDIA dan lumayan makan banyak VRAM, jadinya npu masih kurang dapat support.
Betul - Spesifik di stable diffusion, NPU ini mesti jalan model yang converted ke INT8, nggak bisa jalan lsg direct dari model pyTorch yang biasa dipakai sayangnya, jadi software side memang masih perlu banyak improve. Kalo IGP-nya sih powerful, berasumsi jalan di OpenVINO (Walaupun yaaa kebanyakan sw AI masih banyak yang minta CUDA wkwkwkwk)
Jadi npu di a14 bionic not bad juga ya, walaupun cpu tahun 2020 punya spek di atas kertas 11 tops di tdp 6 watt. Dibanding core ultra yang 11 tops juga di 5 watt. Hmmmm... Menarique
Betul, ANE (apple neural engine) di A14 dan M1 yang punya rating 11 TOPS di 2020 itu cukup mengagumkan sih, walaupun sayangnya agak sulit mau membandingkan macam2 neural engine / NPU ini secara cross-platform, arsitektur softwarenya beda jauh.
kesimpulannya embel2 AI itu bahasa marketing tapi bukan gimmick, karena memang ga semua kebutuhan kebanyakan orang untuk ai itu perlu2 banget, lagipula NPU yg dijabarkan bang alfa tadi sangat terbatas, daripada GPU walaupun integrasi, saran saya kalo mo beli laptop dg performa tinggi mending beli seri intel yg HX dari pada seri ultra, toh sudah bisa berfungsi sebagai AI karena dg laptop dg cpi seperti itu pasti terpasangGPU yg memadai, kalo mau efisiensi daya baru beli seri core ultra, seri ultra hanya ditambahkan NPU dg kemampuan terbatas tadi dan mementingkan efisiensi daya
Iya betuls. Saat ini jika kebutuhannya adalah 'ai acceleration', ya gpu dengan ai accelerator yang punya ekosistem software beres adalah yang paling mudah memenuhi kebutuhan ini. Pas komponen di atas sudah terpenuhi , baru deh bisa pertimbangkan punya NPU untuk jadi pelengkap untuk efisiensi daya di skenario tertentu, bukan dibalik cari yang ada NPU dulu wkwkkwkwk
Mau nambahin Waifu2x itu punya beberapa kekurangan seperti disarankan untuk pake ram diatas 4 GB (untuk HP android) dan disarankan pakai CPU terlebih dahulu karena beberapa perangkat kurang bagus untuk upscale pake GPU
Mas Alfa, kalau spesifikasi laptop gaming/content creation ada gpu diskrit untuk processing yg lebih kenceng, kenapa di requirement AI PC ngga sekalian mensyaratkan adanya gpu RTX untuk kebutuhan mungkin user mau training model AI?
Saat ini, 'requirement' untuk AI PC itu masih belum ada 'standar'-nya, dan semua vendor beda bisa punya standar yang beda. Bagi gw pribadi, GPU (apalagi RTX), itu akan SANGAT membantu workload AI. Hanya mungkin yang bikin 'standar' ini memperhitungkan pengguna yang tidak punya discrete gpu, sehingga NPU dianggap bisa membantu pengguna tanpa discrete gpu (walaupun ya saat video ini tayang, NPUnya tidak segitunya faedah)
Intinya sejauh ini NPU on CPU nya intel statusnya masih early adopter belum ada pemanfaatannya sejauh ini kecuali anda penggila meeting yg bisa meeting berjam2 karena NPUnya bikin hemat baterai
jadi sebenernya ada sisi dimana "produsen bikin suatu benda bernama NPU dan nyuruh konsumen buat beli sebanyak mungkin biar bisa nyuruh developer aplikasi ngesupport penggunaan NPU, alih-alih ngembangin aplikasi AI dgn support CPU/GPU yang lebih efisien untuk penggunaan AI". mungkin bang alva bisa jelasin tolong di video yg lebih mendalam terkait 'kenapa harus melalui NPU untuk mencapai efisiensi daya untuk implementasi AI?'. Tapi terkait penggunaan RAM, setuju juga selama ini pake AI on device boros memory banget. oiya, voice synthetizing tuh masuknya workload yg berat atau ringan ya buat AI on device?
Untuk "produsen bikin suatu benda bernama NPU dan nyuruh konsumen buat beli sebanyak mungkin biar bisa nyuruh developer aplikasi ngesupport penggunaan NPU, alih-alih ngembangin aplikasi AI dgn support CPU/GPU yang lebih efisien untuk penggunaan AI" Ini macem2 sih motivasinya. Gw bukan software developer di bidang ML/AI jadi ini spekulasi ya: Untuk on-device processing, ada kondisi dimana mencapai performa tinggi dan daya rendah pada eksekusi berbagai deep learning apps, itu mungkin belum bisa dilakukan tanpa perubahan yang SANGAT radikal (sebesar kayak Apple pindah dari x86 ke Apple M silicon untuk power efficiency segila2nya naik). Jadi di poin ini, yang dilakukan adalah bikin neural network accelerator dengan ukuran sekecil mungkin (tanpa mengubah arsitektur chip secara drastis) untuk eksekusi tugas spesifik, berharap ini bisa diimplementasikan dengan murah ke banyak prosesor dan PC modern (sambil jualan hype 'AI PC'!), dan karena jumlahnya banyak, ada insentif untuk para app developer untuk mikir "Oh jumlah-nya mayan nih, worth it lah bikin optimalisasi kesana' - sambil pelan-pelan vendor prosesor bikin unit NPU ini dibikin makin gemuk dan kencang di generasi berikutnya. *Walaupun gw asumsi ini tetap tidak akan dibikin sekencang GPU sih, karena ada poin dimana kalau prioritasnya Throughput, ya powernya akan bengkak lama2 kayak GPU jaman sekarang.
@@Luckyn00bOC thanks buat penjelasannya bang. hahaha agak tergelitik di bagian akhirnya. tapi apakah mungkin jika suatu saat nanti akan ada kebutuhan/ tuntutan terhadap Throughput dari NPU yang cukup besar (belajar dari sejarah GPU), akan ada semacam manuver lagi dari produsen dengan membuat 'benda' Proccessing Unit baru entah apa namanya buat ngakalin keterbatasan NPU dalam ngejalanin AI (dengan asumsi implementasi developer untuk penggunaan NPU terlalu masif, dan NPU ini nantinya ga akan dibikin sekencang GPU dan mungkin kejadiannya baru ada di beberapa dekade ke depan myb)??
@@Luckyn00bOC wahhh, ini lebih advance lagi, tapi nanti ga bakalan ngaruh ke jalan cerita game kah? Nanti malah ngerubah jalan cerita kalo bisa ngobrol wkwkw
Sayangnya itu, kalo emang secara komputasi emang nvidia cuda ama intel Xe core itu lebih optimal secara AI gk kaya radeon yang emang gk punya dedicated core khusus optimalisasi buat training ( disini maksudnya bukan soal INT8/16 FP32/64, semuanya punya), liat aja ROCm, gk kaya cuda ama Xe (emang sih intel masih belum banyak diadaptasi tapi karna itu mereka slowly but surely berkembang seperti cuda) , karna implementasi cuda gampang dan udah support banyak, karna itu stigma GPU bagus ya NVIDIA , ya Untuk NPU ini revolusi sih mungkin untuk upscale video or etc karna emang low power, apalagi misal ranah smartphone beh, technologi upscale bisa diimplementasi sama developer game berat (a.k.a genshin/hi3rd/hiSr dll)
Saya Minta Saran kak Saya mau ambil laptops bijak ambil intel i5 13450 hx / ryzen 5 8645 hs sama " pakai rtx 4050 Untuk blajar coding,editing + game Karna dari harga selisih 300 k saja Maaf Saya orang awam baru mau terjun ke dunia pemerogaman
Um Jon, maaf kalau oot. PC gw jadul banget ; FX-8300 ft. GTX 750 Ti. Sehari2 paling banyak dipake buat browser. Buka banyak tab, install banyak ekstensi chrome, kalau yang suka garap airdrop pasti tau. Kadang diselingi main dota2, dan masih lanjay. Tapi ketika dibuat chrome dengan banyak tab dan banyak account-window sering jadi aneh, kayak ngebug gitu lah. Nggak selanjay main dota 2. RAM 16GB btw. Sudah aktifin performance mode juga di chrome biar ga ke kill ketika pindah2 tabs, tetep rasanya ga nyaman. Kira2 beban yang dipakai browser itu lebih kemana? Jadi saya bisa optimalkan kalau mau upgrade atau sekalian pindah socket ke AM4 atau mungkin AM5. Nowdays kayaknya banyak aplikasi browser-based atau entah apa sebutannya. Workload nya chromium ini lebih kemana, atau emang PC jadul saya yang udah terlalu obsolete sehingga tidak dapat bekerja maksimal. Sebenernya ngidam banget sama ryzen tp itu PC udah nemenin bertahun2. 750 Ti mungkin sudah 10 tahun lebih. Sekali lagi mohon maaf um Jon. Tadinya mau nanya2 sama channel2 yang lagi live, eh malah video um Jon yang muncul di beranda, sekalian aja nanya di sini, mungkin ada yang bisa bantu jawab. Hehe. saya suka pembahasan detil spt ini. Biasanya dulu sih nongkrong2 di kaskus, baca thread2 tentang PC yg panjang dan membosankan bagi sebagian besar orang. Makasih yang udah mau baca dan mungkin mau membantu kasih masukan :)
Ya karena cpu nya juga itu jadul banget seri FX yg terkenal kurang oke BANGET bahkan pd masa rilisnya dan panas sebelum amd pindah ke era Ryzen yg lebih oke, jadi gak cuna semerta2 punya ram 16gb doang saran ya upgrade pc keseluruhan sih
@@Eleganttf2 Ntap, makasih. Susah move on wkwkwk, benchmark saya selama bisa main dota2 aja udah bagus soalnya, sementara teknologi terus berkembang dg sangat cepat. Makasih banget um _/\_
ane juga punya SBC yang ada NPU nya juga bingung ini dipake ngapain wkwk, di windows aja masih minim sekali potensinya, apalagi sbc yang jalanin Linux.
Saya Minta Saran kak Saya mau ambil laptops lenovo loq bijak ambil intel i5 13450 hx / ryzen 5 AI 8645 hs sama " pakai rtx 4050 Untuk blajar coding,editing + game untuk jangka panjang Karna dari harga selisih 300 k saja Maaf Saya orang awam baru mau terjun ke dunia pemerogaman Terima kasih
Dari sisi 'mengakselerasi operasi matrix multiplication pada data type tertentu', ya, NPU ini cara kerjanya mirip sama 'Tensor Core' nvidia RTX. Mungkin bedanya, tensor core di NVIDIA RTX teintegrasi ke GPU, NPU di SoC Core Ultra teorinya bisa beroperasi independen dari CPU/GPU, jadi itu NPU bisa mengerjakan aplikasi yang berbeda dengan GPU-nya.
Permisi mas, mohon sarannya mas, saya punya pc dengan spesifikasi Proci : i5-10400F Mobo : Gigabyte Aorus Elite B560M VGA : RTX3050 untuk sekarang saya memakai ram gigabyte 2x8GB 2666MHz nah yg mau saya tanyakan, apakah bisa menggunakan ram dengan 3200Mhz untuk spesifikasi tersebut? atau mentok 2666Mhz, soalnya yg saya dapati, i5-10400f dengan B460M, maksimumnya bisa pakai ram dengan 2666mhz. mohon pencerahannya mas. Terima kasih.
Hi Guys, semoga materinya berguna ya,
Rangkuman:
1) AI di Konteks komputasi PC = Workload Komputasi, ada yang ONLINE, ada yang OFFLINE/local/on-device.
Workload AI umumnya terbagi ke Training dan Inferencing.
Training = Membuat Model.
Inferencing = Eksekusi/Menjalankan Model.
Workload AI Consumer umumnya ada di INFERENCING.
Workload AI ini bisa saja jalan di CPU, tapi umumnya akan lambat.
Ini bisa dibantu akselerator macam GPU atau NPU.
2) NPU = AI Accelerator
Sebuah dedicated unit spesifik untuk perhitungan AI, umumnya TERPISAH dari CPU dan GPU.
TAPI prioritas utama NPU BUKAN performance/throughput seperti GPU,
melainkan NPU dibuat untuk EFISIENSI DAYA / POWER EFFICIENCY,
Melakukan tugas AI dengan power seRENDAHnya.
3) Saat ini tidak usah terlalu pusing dengan rating TOPS.
TOPS dari NPU tidak selalu sejalan dengan kapabilitas/fungsi, karena ada faktor SOFTWARE.
TOPS itu juga ada yang ditulis untuk KESELURUHAN CHIP, bukan hanya NPU saja.
Kadang juga rating NPU TOPS ini tidak spesifik ditulis untuk data type apa yang dieksekusi
(10 TOPS INT8 tidak selalu bisa dianggap sama dengan 10 TOPS FP16 atau 10 TOPS INT4)
Carilah hardware (NPU/GPU) yang BISA dimanfaatkan banyak software/aplikasi AI
Karena hardware kencang tapi nggak dipakai, ya nggak banyak faedah.
Catatan:
Ini penjelasan NPU diambil dari sudut pandang prosesor Intel Core Ultra,
tapi karakteristik NPU secara umum bisa mirip dengan chip vendor lain
(macam AMD NPU 'RyzenAI'
Qualcomm Snapdragon Elite X Hexagon NPU, dan Apple Neural Engine)
bang izin bertanya, jika laptop sdh mempunyai vga kyak rtx apakah bisa menjalankan AI kyak yg core ultra.?
@@carbon_1264
GPU RTX, berasumsi ini maksudnya kelas RTX 3050 ke atas, itu dari sisi performa, umumnya akan jauh di atas AI di Core Ultra 7 155H yang ada di sini (baik GPU dan NPU).
Terimakasih untuk ilmunya bang. semoga lebih banyak video seperti ini. penjelasan panjang jelas dan ga ngebosenin. ditunggu video terkait AI selanjutnya
iyaa bang krna bingung direntang hrga yg mirib ada yg pake rtx 3050 ada jga yg pake core ultra, jdi bingung bgusan mana untk jangka panjang
@@carbon_1264 NPU di Core Ultra itu dibuat atas nama efisiensi daya sih, IGPnya relatif kencang untik AI, tapi throughput-nya masih kalah kalau dibanding sama 3050.
PENCERAHANNYA TERANG SEKALI PAK!
KYAH DIKOMEN KOH DAVID
*Happy Nerd Noises
wow master gadgetin mampir nih. ikut nyimak semoga ketularan ilmu dan rezkinya.amin
(Nama/NIM) Hadir menyimak mata kuliah Machine Learning 2 SKS secara daring.
Untuk kalian2 yang baca kolom komen dan baru ngeh soal ini.
Kalo pakai chatGPT gretongan, masih versi yang lama. Masih versi yang belom canggih, dan masih pakai database tahun 2021. Udah cukup buat mulai tanya2 basic. Tapi lu mesti detailin lagi lebih lanjut searching sendiri. Udah ada versi baru yang bisa lu coba trialnya beberapa minggu, dan kalo bayar lu bakal dapet bonus bisa pake Dall-E. Lalu bisa bantu coding beberapa hal basic. Apa lagi kabar awal tahun yang bilang sudah ada si SORA yang bisa generate video. Tool ini berguna banget, tapi masih ada beberapa detail yang masih menjadi masalah yg mesti lu hindari. OpenAI masih bisa melakukan kesalahan (ya iya lah)
Tipe kesalahannya itu di bagian detail, jadi misalnya lu nanya masalah PC part, ChatGPT bakal ngasih beberapa pilihan. Dia kasih pilihan dengan percakapan yang meyakinkan, namun ternyata setelah di check beberapa kali, beberapa komponen PC yang dia saranin nggak kompatible. Di kasus yang gw coba, dia saranin AM4 CPU ke AM5 socket mother board. AMD socket udah lumayan mendetail dalam pemilihan PC part, dan ChatGPT belum ngecheck semendalam ini. Tapi kalau mau nanya beberapa konsep basic seperti apa itu RAM, apa itu, MOBO, apa itu, CPU, ChatGPT bakal menjelaskan cukup baik. Bahkan cukup mengerti sampai nolongin mana yang di upgrade dahulu kalau butuh ngerjain task tertentu (geming, render, atau video) di PC yang mau di upgrade. Dia juga masih nyambung pas ngomongin generasi DDR, jadi masih ngerti part2 PC DDR5 dan DDR4. Tapi, ya itu, data internet di tahun 2021. Jadi barang2 baru di AM5 dan DDR5 belum masuk ke komputasinya dia.
Untuk sekedar ingin nangkep konsep, atau mau denger penjelasan singkat mengenai sesuatu, gw selalu tanya ke Abang Jipiti. Nanya ke Mbah Google rada repot karena banyak yang spam SEO buat bisnis mereka sendiri. Jadi gw gabungin si Abang dan si Mbah. Minta si abang jipiti nerangin konsep, dan gw search detail ke Mbah gugel.
BTW, udah ada beberapa counter tool untuk ngecek sebuah essay itu hasil ChatGPT atau nggak. Jadi buat kalian yang mau minta jipiti ngerjain tugas kuliah loe, ada cara buat ngedeteknya. Hati-hati. Ini tools buat nolong lu kerja, bukan buat kerjain kerjaan loe.
Intel & AMD : Ngasih NPU buat "AI" biar keliatan keren di slide solving komputasi ai kompleks dan marketing purpose
Realita : Best i can do is only background blurring, dan image upscaling dan hal remeh temeh lain,take it or leave it!! (utk saat ini)
😂
Betulllll.
Ini udah mau 6+ bulan dari itu unit NPU rilis, belum ada aplikasi umum yang komputasinya bisa dioffload dengan mudah ke NPU :/
Perbanyak wawasan bang, jangan paling sok tau. Gw pengguna RTX makin terbantu bila ada NPU, rendering stable diffusion makin cepet
@@rizkman ngakak cik hahahahaha stable diffusion aja masih blm support NPU kocak yg sok tau disini tu ya elu aduh kalo gue sih malu ya komen kek lu disini 😂
Nvidia : cari untung gede jual VGA untuk train Ai semahalnya "ini VGA 489 juta per satuan, murah banget"
Perusahaan: invest milyaran hingga triliunan beli VGA mahal Nvidia buat train model ai mereka
Konsumen : ada NPU semoga banyak fungsi Ai yg murah / gratis
Perusahaan : untuk balik modal, bikin/integrasi software premium mereka dengan fungsi Ai, dijual sistem kredit/subscription yg proses nya masih dilakukan di server mereka "minta murah, memangnya duit moyang lu"
Konsumen : bicara negatif NPU karena fungsinya terbatas
Facepalm
@@saialexander1873 haha masih ae lu berusaha kontra ama gw, lucu nya lu ngebela NPU, ya kali NPU mau lu buat training ya gak kuat lah dan juga fungsinya baru buat remeh temeh doang dan jadi marketing gimmick doang.
*Facepalm*
Dosen ngajar pagi-pagi
Ini baru konten kreator hardware PC yg rela S2 cuman buat belajar prosesor. Gilaak keren emang
Luar biasa, seperti dikelas perkuliahan s2 computer science, mata kuliah AI
Percayalah, S2 AI itu JAUH lebih njelimet dan bikin migren nggak berhenti selama setidaknya 3 bulan pertama :p
Setuju, karena baru lewat satu semester. konten ini mempermudah saya dalam menangkap rangkuman dari ai😆@@Luckyn00bOC
7:14 - Saham Salim Group dan Indofood 📈
mantab pak dosen pelajarannya, menunggu kompetisi overclock NPU
Terimakasih kuliah online nya master.... Semoga sehat selalu, banyak rezekinya dan panjang umur.... Aamiin
Seneng sekali ada video ...
Setelah sekian lama mas jonathan review dan over clock CPU dan GPU ...sekarang bahas NPU mudah2an besok bisa Overclock NPU atau misalnya ada NPU dedicated...
Semoga ke depan Bisa Rutin BAHAS NPU Juga
Daging semua nih, yoklah ni bang alva creator yang wajib di subscribe bro
Alva... No.1 overclocker Indonesia
Ada Zenbook nih 😍
ihiy dinotice mimin
Investasi hardware Ai mahal karena Nvidia nyari profit gede, cuma fungsi Ai remeh temeh yg bakal didrop ke npu. Fungsi Ai yg penting masih hanya akan lewat software mahal, server side butuh internet dengan sistem kredit/subscription yg mahal untuk menutup biaya invest & operasional. Gegara kerakusan buat beli jaket kulit baru
Rekomendasiin laptop spek mahal itu dong
pencerahan ini..terimakasih suhu..
peran intel openvino di music separation gila sih, saya coba pc di pc i5 12500 + GTX 1660 Super, pas rendernya pake GPU, bbrp x crash, dan hasilnya lumayan lama, dilagu yg sama pas render pake igp intel bawaan cpu nya, ngga crash dan lebih cepat 😅😅
bayangin yah ada laptop / tablet keluaran pabrik udah di instal LLM di dalemnya, dah full sama asistent agent dan bisa jalan offline, tanpa internet bisa di ajak ngobrol, suaranya yg kawaii, wkwkwkw
bikin, bang.
5:25 semenjak masuk kampus outfitnya berubah jadi formal bangeet wkwk. Mantaaplaah
...materinya daging smua bang Alva buat pencerahan dasar soal Ai 👍
knp blk lg vision ears
Nonton ini di kantor berasa lagi workshop online
buat pribadi intinya untuk sekarang pemilihan part pc baik gaming atau editing tetap menggunakan metode tradisional, cukup nyari cpu gpu kencang aja daripada yg ber-embel ai. terima kasih 2sks paginya pak lurah
Correct - kalau nggak ada kebutuhan software/workflow AI khusus punya GPU kencang (apalagi yang modern, punya AI Accelerator) itu sudah lebih dari cukup.
What I worry about is that after the big tech companies use their maximum power to push AI technology and to train their large datasets, they are now trying to inference their trained models into our consumer products. They need to deploy what they have trained before. What if your computer has it's own will, it just more terrifying than watching a horror movie since it can run in background with low power
Makasih bang pencerahannya tentang AI dan NPU.
3:49 Azunyan~~
Sekarang emang teknologi AI sedang dalam tahap pengembangan yang masih... penggunaanya juga masih simpel, tapi potensi yang di tawarkan luar biasa... bagaimana dunia virtual dan dunia nyata bisa lebih dekat lagi... Sebagai orang awam, menarik untuk melihat perkembangan kedepannya...
Nonton kedua kali baru paham sama pembahasannya 😞🙏🏻
kenapa baru muncul sekarang ya ni chanel gw butuhin bgt dari dulu, thanks pak dosen materi kuliahnya wkwk
Bang Alva udah veteran benernya.. dulu di Jagat Review
Nyimak sambil momong anak pak dosen...🙏
Senang liat bang Alva ngajar, kayak dosen Barat kalau lg ngajar
mantep pak dosen, penjelasan nya, klo dgr dr penjelasan pak dosen berarti laptop ai gen hebat juga yah GPU nya udh AMD Radeon 780M + sdh ada NPU nya jadi bs main di low watt pakai npu, high watt pakai gpu nya.
Ya itu akan berguna kalau softwarenya mendukung sih (780Mnya terutama),
saat gw ngetik ini, NPU-nya AMD itu kencang di spesifikasi, bukan di aplikasi :(
AI berguna bgt buat kerjaan yg kompleks seharusnya, tpi kalau hanya untuk fitur ringan dan sengaja dibatasi untuk offline boleh sh masuk laptop/PC, semacam pencarian data berdasar warna, nama file yg lebih deep, artificial design semacam ganti BG foto, dalam game mungkin load asset yg lebih baik biar FPSnya stabil, tpi untuk konteks yg berat online lebih masuk akal karena fasilitas server yg mumpuni
makasih pak dosen alva, sering2 bikin konten ky gini 👍
Pagi-pagi nonton ini berasa kuliah pagi😅
Kuliah pagi yang memaparkan materi dosennya enak 😊
Penjelasan deep banget, detail nya kena, thanks algorithm yt 🎉 auto subscribe
Akhirnya kuliah lagi setelah sekian lama menunggu😊😊
disisi gaming harapan kedepannya NPU bisa jadi opsi untuk generate model wajah dan postur tubuh npc biar lebih variatif dan ngk ketemu lagi npc kembar siam, jadi nambah imersif ketika main game apalagi gamenya open world macem GTA
ilmu mahal, terimakasih pak dosen 🙏
Trimakasihkuliah nya om alva semoga makin sering aja 😁
Terima kasih kuliahnyaa mas alva,
Bentar, gua baru sadar bang Alva
Gw inget waktu amd Indonesia launching ryzen 7040 di indo, mereka pamer NPU ryzen 7840HS mereka 10 TOPS, cuman di era itu ga ada yg mau peduli soal NPU
Lanjut intel rilis ultra 7 155h, intel marketing 34 TOPS, di sini gw liat wah amd kena bantai ni intel full AI bahkan MSI claw bukan nya pamer performa malah pamer AI
Terus amd langsung refresh 8845HS punya NPU 16 TOPS, total 38 TOPS sampai video ini rilis gw ga sadar kenapa angka spec amd ada 2, gw pikir palingan gimmick belaka dan NPU memang ga peduli soal TOPS, toh yg AMD jauh lebih efisien pikir saya
Ternyata waktu liat video ini, gw baru sadar intel NPU ternyata cuman 11 TOPS, hanya leading 1 TOPS dari amd tapi marketing NPU mereka lebih sadis, gw aja ga sadar 34 itu total maksud nya cpu+gpu+Npu, apa lagi awam 🙏
Dan makanya gw agak2 'jengah' sama specs dari TOPS, walaupun ya untuk vendor, ini nilai marketing yang enak buat digoreng :)
btw, Mau versi overthinking yang di-cut dari video ini? (Mentahan 1 jam 10 menit btw wkwkwkwk)
TOPS itu tidak spesifik ke operasinya apa.
TFLOPS itu (dulu) asumsinya Single-precision FP32 operation, walaupun lama2 ini bisa geser ke FP16.
TOPS itu bisa macem2. Bisa FP16, FP8, INT8, INT4 dkk. Dan itu totally beda artinya, dan aplikasi/API/Framework apa yang bisa pakai lower precision data type itu.
Lalu TOPS di beberapa NPU (macam AMD RyzenAI) itu bisa di'partisi' jadi beberapa bagian/stream, misal amd itu bisa jadi 4 stream x 2 TOPS buat jalanin model beda2 misalnya.
Belum lagi TOPS/TFLOPS itu HANYA dihitung pada peak operating clock cycle.
Sedangkan unit NPU/GPU dkk tidak selalu akan operating pada peak clock cycle, bergantung komponen lain/power limit chip.
..dan yang gw sebut di atas itu ada kali 5-8 menit, makanya diilangin di video ini wkwkwkkwkwwk
Hewo sir, bisa coba Phi-3 lewat ONNX + DirectML atau OpenVINO? Kebetulan docs-nya sudah dirilis di Community Blog Microsoft dari 21 Mei. IMO text generation lebih kepakai dibanding image generation/audio segmentation/ai upscaling. Sebagai pembanding mungkin bisa diadu sama M1 atau M2 jalanin Phi-3 GGUF (yang fp16 biar adil) pakai Metal. Cheers ✌
Thx bang Alva buat kuliah paginya
Hadir pak dosen
makasih bapa informasinya❤😊
terimakasih ilmunya bang alva, kebetulan sedang utak2 atik comfyUI, ternyata seru juga
ini yang saya cari2 kemarin,, tepimakasih pak
Coba install ollama local aja. Bisa di terminal atau sekalian install open webUI biar ada interfacenya
Ini lagi test LMStudio sih, for some reason lebih mudah testnya :)
Ini baru based ilmu AI loh 🤣
Alhamdulillah vga 3000 series support AI jadi game2 yg support AI sdh aman dan bisa dinikmati 😊
Btw bahas jg AI utk game kayaknya menarik utk dibahas mulai dari rtx 2000 series bg 😊🙏🏼
Kalau AI di pc rumor2 nya rilis di intel arrow lake (gen 15) mungkin worth it sih upgrade dari intel i3 gen 10 ke i3 gen 15 🤣
numpang nyimak mbah
*salim sama mbah PSU
sampe menit ke 4 dah mulai bengong sendiri mencerna perkataan pak dosen
makasih infonya, masih ragu beli laptop yang ada npu nya karena hampir nggak ada benchmark untuk ngetes npu nya di software ai kaya stable diffusion. trus juga kebanyakan software ai masih bergantung sama CUDA nya NVIDIA dan lumayan makan banyak VRAM, jadinya npu masih kurang dapat support.
Betul - Spesifik di stable diffusion, NPU ini mesti jalan model yang converted ke INT8, nggak bisa jalan lsg direct dari model pyTorch yang biasa dipakai sayangnya, jadi software side memang masih perlu banyak improve.
Kalo IGP-nya sih powerful, berasumsi jalan di OpenVINO
(Walaupun yaaa kebanyakan sw AI masih banyak yang minta CUDA wkwkwkwk)
bang semalem gua mimpi lo review i9 gen 14, eh paginya muncul video baru wkwkw
Jadi npu di a14 bionic not bad juga ya, walaupun cpu tahun 2020 punya spek di atas kertas 11 tops di tdp 6 watt. Dibanding core ultra yang 11 tops juga di 5 watt. Hmmmm... Menarique
Betul, ANE (apple neural engine) di A14 dan M1 yang punya rating 11 TOPS di 2020 itu cukup mengagumkan sih, walaupun sayangnya agak sulit mau membandingkan macam2 neural engine / NPU ini secara cross-platform, arsitektur softwarenya beda jauh.
kesimpulannya embel2 AI itu bahasa marketing tapi bukan gimmick, karena memang ga semua kebutuhan kebanyakan orang untuk ai itu perlu2 banget, lagipula NPU yg dijabarkan bang alfa tadi sangat terbatas, daripada GPU walaupun integrasi, saran saya kalo mo beli laptop dg performa tinggi mending beli seri intel yg HX dari pada seri ultra, toh sudah bisa berfungsi sebagai AI karena dg laptop dg cpi seperti itu pasti terpasangGPU yg memadai, kalo mau efisiensi daya baru beli seri core ultra, seri ultra hanya ditambahkan NPU dg kemampuan terbatas tadi dan mementingkan efisiensi daya
Iya betuls.
Saat ini jika kebutuhannya adalah 'ai acceleration', ya gpu dengan ai accelerator yang punya ekosistem software beres adalah yang paling mudah memenuhi kebutuhan ini.
Pas komponen di atas sudah terpenuhi , baru deh bisa pertimbangkan punya NPU untuk jadi pelengkap untuk efisiensi daya di skenario tertentu, bukan dibalik cari yang ada NPU dulu wkwkkwkwk
Detail bgt.
ty nambah wawasan ^^b
Mantab bang, sangat mencerahkan
Wih batikan
Thank you bang ilmunya 😁
Kobo obsession 16:15
Berasa Materi Kuliah Pagi-Pagi
Dari Bajunya aja udah feel bapak-bapak dosen 😂
Mau nambahin
Waifu2x itu punya beberapa kekurangan seperti disarankan untuk pake ram diatas 4 GB (untuk HP android) dan disarankan pakai CPU terlebih dahulu karena beberapa perangkat kurang bagus untuk upscale pake GPU
Sama beberapa gambar bisa rusak pas pake GPU upscale
Dan hasilnya kadang ada beberapa pixel yang tidak ditempatnya tapi itu hanya beberapa
hadir om
Mas Alfa, kalau spesifikasi laptop gaming/content creation ada gpu diskrit untuk processing yg lebih kenceng, kenapa di requirement AI PC ngga sekalian mensyaratkan adanya gpu RTX untuk kebutuhan mungkin user mau training model AI?
Saat ini, 'requirement' untuk AI PC itu masih belum ada 'standar'-nya, dan semua vendor beda bisa punya standar yang beda.
Bagi gw pribadi, GPU (apalagi RTX), itu akan SANGAT membantu workload AI.
Hanya mungkin yang bikin 'standar' ini memperhitungkan pengguna yang tidak punya discrete gpu, sehingga NPU dianggap bisa membantu pengguna tanpa discrete gpu (walaupun ya saat video ini tayang, NPUnya tidak segitunya faedah)
menuju death of expertise 2.0 dan melampauinya :v
terimakasih bro ;)
Bang Alva Mau Kondangan Kemana? Rapi bener ini...? Semangat terus mengedukasi kami dengan Kontennya ya bang dosen
Abis kelar kelas inih :p
Ada Kobo cuy. Btw nunggu review ryzen AI
Gw beli Advan AI-Gen patungan sama Subki GaptechID. Harusnya akhir bulan udah megang sih
@@Luckyn00bOC lestgo. Ditunggu pak Dosen
akhirnya pertanyaan gue terjawab
nyimak bang
wanjay baju2 calon pns . semoga lolos cpns ya bang
Intinya sejauh ini NPU on CPU nya intel statusnya masih early adopter belum ada pemanfaatannya sejauh ini kecuali anda penggila meeting yg bisa meeting berjam2 karena NPUnya bikin hemat baterai
Bang, test Advan Ai Gen yg Ryzen 7 8845HS kyk nya seru
Gw beli itu patungan sama Subki gaptech id, akhir mei gw balik ke jakarta ambil itu unit :)
jadi sebenernya ada sisi dimana "produsen bikin suatu benda bernama NPU dan nyuruh konsumen buat beli sebanyak mungkin biar bisa nyuruh developer aplikasi ngesupport penggunaan NPU, alih-alih ngembangin aplikasi AI dgn support CPU/GPU yang lebih efisien untuk penggunaan AI". mungkin bang alva bisa jelasin tolong di video yg lebih mendalam terkait 'kenapa harus melalui NPU untuk mencapai efisiensi daya untuk implementasi AI?'. Tapi terkait penggunaan RAM, setuju juga selama ini pake AI on device boros memory banget. oiya, voice synthetizing tuh masuknya workload yg berat atau ringan ya buat AI on device?
Untuk "produsen bikin suatu benda bernama NPU dan nyuruh konsumen buat beli sebanyak mungkin biar bisa nyuruh developer aplikasi ngesupport penggunaan NPU, alih-alih ngembangin aplikasi AI dgn support CPU/GPU yang lebih efisien untuk penggunaan AI"
Ini macem2 sih motivasinya.
Gw bukan software developer di bidang ML/AI jadi ini spekulasi ya:
Untuk on-device processing, ada kondisi dimana mencapai performa tinggi dan daya rendah pada eksekusi berbagai deep learning apps, itu mungkin belum bisa dilakukan tanpa perubahan yang SANGAT radikal (sebesar kayak Apple pindah dari x86 ke Apple M silicon untuk power efficiency segila2nya naik).
Jadi di poin ini, yang dilakukan adalah bikin neural network accelerator dengan ukuran sekecil mungkin (tanpa mengubah arsitektur chip secara drastis) untuk eksekusi tugas spesifik, berharap ini bisa diimplementasikan dengan murah ke banyak prosesor dan PC modern (sambil jualan hype 'AI PC'!),
dan karena jumlahnya banyak, ada insentif untuk para app developer untuk mikir "Oh jumlah-nya mayan nih, worth it lah bikin optimalisasi kesana' - sambil pelan-pelan vendor prosesor bikin unit NPU ini dibikin makin gemuk dan kencang di generasi berikutnya.
*Walaupun gw asumsi ini tetap tidak akan dibikin sekencang GPU sih, karena ada poin dimana kalau prioritasnya Throughput, ya powernya akan bengkak lama2 kayak GPU jaman sekarang.
@@Luckyn00bOC thanks buat penjelasannya bang. hahaha agak tergelitik di bagian akhirnya. tapi apakah mungkin jika suatu saat nanti akan ada kebutuhan/ tuntutan terhadap Throughput dari NPU yang cukup besar (belajar dari sejarah GPU), akan ada semacam manuver lagi dari produsen dengan membuat 'benda' Proccessing Unit baru entah apa namanya buat ngakalin keterbatasan NPU dalam ngejalanin AI (dengan asumsi implementasi developer untuk penggunaan NPU terlalu masif, dan NPU ini nantinya ga akan dibikin sekencang GPU dan mungkin kejadiannya baru ada di beberapa dekade ke depan myb)??
02:40 itu sama2 kucing bang 😁
Bayangkan, dimasa depan ada game yang pohonnya digenerate ulang sama ai buat nyesuaiin sama kondisi di dunianya
Gw lebih membayangkan ada game yang NPC-nya pakai LLM macam chatGPT, jadi kita 'ngobrol' sama itu NPC soal lore, legends, secrets etc :)
@@Luckyn00bOC wahhh, ini lebih advance lagi, tapi nanti ga bakalan ngaruh ke jalan cerita game kah? Nanti malah ngerubah jalan cerita kalo bisa ngobrol wkwkw
Sayangnya itu, kalo emang secara komputasi emang nvidia cuda ama intel Xe core itu lebih optimal secara AI gk kaya radeon yang emang gk punya dedicated core khusus optimalisasi buat training ( disini maksudnya bukan soal INT8/16 FP32/64, semuanya punya), liat aja ROCm, gk kaya cuda ama Xe (emang sih intel masih belum banyak diadaptasi tapi karna itu mereka slowly but surely berkembang seperti cuda) , karna implementasi cuda gampang dan udah support banyak, karna itu stigma GPU bagus ya NVIDIA , ya Untuk NPU ini revolusi sih mungkin untuk upscale video or etc karna emang low power, apalagi misal ranah smartphone beh, technologi upscale bisa diimplementasi sama developer game berat (a.k.a genshin/hi3rd/hiSr dll)
yep "AI accelerator" di RDNA3 aja cuma ISA yg masih nyatu dgn shader nya gk kaya Tensor core yg bener2 dedicated terpisah bikin lbh efisien
2:45 hmmmm kucing😋😋🤣🤣
om bahas DSR control panel dong + smoothness %.nya yg paling pas di res. 2k dan 4k
pake monitor 1080p
Saya Minta Saran kak Saya mau ambil laptops bijak ambil intel i5 13450 hx / ryzen 5 8645 hs sama " pakai rtx 4050
Untuk blajar coding,editing + game
Karna dari harga selisih 300 k saja
Maaf Saya orang awam baru mau terjun ke dunia pemerogaman
coba benchmark pake Ollama bang
Sepertinya NPU buat laptop masih belum worth it karena banyak software belum mengoptimalkannya. Masih lebih baik pakai GPU untuk support AI.
Apakah NPU cikal bakal SKYnet?😎
apa openvino bisa genrate image bang?
Stable Diffusion ada yang OpenVINO kok, coba search aja :)
*Di video ini juga ada perbandingannya di bagian gpu
@@Luckyn00bOC kalo open vino minimal spek nya gimana bang ya? Klo gk salah baca bisa di gen 6 ya?
Um Jon, maaf kalau oot. PC gw jadul banget ; FX-8300 ft. GTX 750 Ti. Sehari2 paling banyak dipake buat browser. Buka banyak tab, install banyak ekstensi chrome, kalau yang suka garap airdrop pasti tau. Kadang diselingi main dota2, dan masih lanjay. Tapi ketika dibuat chrome dengan banyak tab dan banyak account-window sering jadi aneh, kayak ngebug gitu lah. Nggak selanjay main dota 2. RAM 16GB btw. Sudah aktifin performance mode juga di chrome biar ga ke kill ketika pindah2 tabs, tetep rasanya ga nyaman. Kira2 beban yang dipakai browser itu lebih kemana? Jadi saya bisa optimalkan kalau mau upgrade atau sekalian pindah socket ke AM4 atau mungkin AM5. Nowdays kayaknya banyak aplikasi browser-based atau entah apa sebutannya. Workload nya chromium ini lebih kemana, atau emang PC jadul saya yang udah terlalu obsolete sehingga tidak dapat bekerja maksimal. Sebenernya ngidam banget sama ryzen tp itu PC udah nemenin bertahun2. 750 Ti mungkin sudah 10 tahun lebih. Sekali lagi mohon maaf um Jon. Tadinya mau nanya2 sama channel2 yang lagi live, eh malah video um Jon yang muncul di beranda, sekalian aja nanya di sini, mungkin ada yang bisa bantu jawab. Hehe. saya suka pembahasan detil spt ini. Biasanya dulu sih nongkrong2 di kaskus, baca thread2 tentang PC yg panjang dan membosankan bagi sebagian besar orang.
Makasih yang udah mau baca dan mungkin mau membantu kasih masukan :)
Ya karena cpu nya juga itu jadul banget seri FX yg terkenal kurang oke BANGET bahkan pd masa rilisnya dan panas sebelum amd pindah ke era Ryzen yg lebih oke, jadi gak cuna semerta2 punya ram 16gb doang saran ya upgrade pc keseluruhan sih
@@Eleganttf2 Ntap, makasih. Susah move on wkwkwk, benchmark saya selama bisa main dota2 aja udah bagus soalnya, sementara teknologi terus berkembang dg sangat cepat. Makasih banget um _/\_
Baru ngeh dah ngga gabung sama jagat?
Coba cek video pertama channel ini, dari Maret 2023 btw, skrg kuliah jadi ngisi begini buat hobi aja ;)
absen dulu
ane juga punya SBC yang ada NPU nya juga bingung ini dipake ngapain wkwk, di windows aja masih minim sekali potensinya, apalagi sbc yang jalanin Linux.
menarik
Ram di windows vs mac os apakah mirip seperti ram di android vs ios yang notabene ios lebih baik dalam mengelola ram?
Kenapa ya RAM sering banget dituntut ikut meningkat setiap ada teknologi komputasi yang baru😂
Ya karena asumsinya - kompleksitas komputasi yang meningkat, akan membuat kebutuhan memori-nya meningkat juga. Ada yang drastis, ada yang perlahan.
Saya Minta Saran kak Saya mau ambil laptops lenovo loq bijak ambil intel i5 13450 hx / ryzen 5 AI 8645 hs sama " pakai rtx 4050
Untuk blajar coding,editing + game untuk jangka panjang
Karna dari harga selisih 300 k saja
Maaf Saya orang awam baru mau terjun ke dunia pemerogaman
Terima kasih
ga kepanjangan bang videonya, malah kurang.
"kata gw yang asik nonton tiba" ternyata udh penutup"
Apakah ada API nya bang..
untuk mengembangkan software basis ai?
NPU Intel berarti sama kayak Tensor Core nya Nvidia kah bang cara kerjanya?
Dari sisi 'mengakselerasi operasi matrix multiplication pada data type tertentu', ya, NPU ini cara kerjanya mirip sama 'Tensor Core' nvidia RTX.
Mungkin bedanya, tensor core di NVIDIA RTX teintegrasi ke GPU, NPU di SoC Core Ultra teorinya bisa beroperasi independen dari CPU/GPU, jadi itu NPU bisa mengerjakan aplikasi yang berbeda dengan GPU-nya.
Permisi mas, mohon sarannya mas, saya punya pc dengan spesifikasi
Proci : i5-10400F
Mobo : Gigabyte Aorus Elite B560M
VGA : RTX3050
untuk sekarang saya memakai ram gigabyte 2x8GB 2666MHz
nah yg mau saya tanyakan, apakah bisa menggunakan ram dengan 3200Mhz untuk spesifikasi tersebut?
atau mentok 2666Mhz,
soalnya yg saya dapati, i5-10400f dengan B460M, maksimumnya bisa pakai ram dengan 2666mhz.
mohon pencerahannya mas. Terima kasih.
Akan bottleneck (mengikuti CPU)
Keren bgt NPU bisa jalan konstan di 5 watt, padahal modul bluetooth bisa lebih dari itu. 😂
Dan itu technically bukan hanya NPU-nya, tapi itu satu package CPU (CPU, IGP, NPU), mungkin porsi NPU-nya saja akan jauh lebih kecil ;)
Lebih heran lagi itu ngejalanin rblur background live. Laptop 4-5 thn lalu udh kerja keras itu ngilangin background pas meet