Toch knap dat Willem Alexander deze hele aflevering heeft gepresenteerd en dat Arjen er de hele tijd in het begin op was geplakt. Leuk dat Willy meewerkte voor de laatste aflevering!
Verschil met Willie van Lucky tv is dat, dat Haagse accent juist Willie zo mooi maakt. De stemvervormer zou er juist voor zorgen dat hij de dingen op een hele formele manier brengt.
Dit gaat helemaal goed komen. Er kan niets gebeuren zolang onze minister van defensie de inloggegevens van een geheime conferentie niet deelt op twitt... Oh, wacht... Dit gaat inderdaad leuk worden, maar ik weet niet perse voor wie.
Klopt. Al die filmpjes van Joe Biden die zich racistisch uitlaat of niet uit zijn woorden komt worden straks als deepfake bestempeld. Een hele natie misleid, nu al trouwens, en de realiteit bijna niet meer aantoonbaar
voor de acteurs is dit een hel, waarom heb je nog een acteur, die miljoenen kost, nodig als je de computer gewoon een perfect personage voor de film kan laten maken. Wel heel leuk voor de kijker, films/series kunnen veel goedkoper worden gemaakt waardoor er meer leuke films en series komen.
@@anoniemw.222 ik denk dat de computers altijd wel een voorbeeld acteur nodig gaan hebben om een personage om heen te bouwen. Als ze het helemaal zelf moeten gaan maken wordt het beeld waarschijnlijk snel "te perfect" en mensen voelen zich vaak ongemakkelijk als ze iemand op beeld zien die te perfect is
@@nadiar.4638 Waar, maar die in perfecties kan je inbouwen. Wss heb je mensen nodig zodat de bewegingen er goed blijven uitzien (zoals de apen van planets of the apes). Alleen geen super dure acteurs meer nodig, iedereen kan het goed doen!
Ik ben wel blij dat hij op 6:03 een knop indrukt anders had ik echt gedacht dat het magie is... Als je het niet erg vind, ik ga weer even wachten tot de SGP site weer online is want het is zondag
Dat overleden mensen nadoen om rauwende mensen te helpen is nog well het engste wat ik hier heb gehoord. Straks zitten allemaal mensen in hun eigen wereldje te praten met spoken nooit in staat om verder te gaan of vrede te vinden met wat er is gebuerd.
Ook interessant om over na te denken: nu kon journalist Daniël Verlaan laatst een "top secret" meeting joinen en het werd meteen duidelijk dat de meetinglink + pincode was uitgelekt. Straks, gewoon met een vlag op de achtergrond en een filtertje over het gezicht, wordt dat een heel ander verhaal! "I'm sorry for being late, please continue"
Ik denk dat je geen mening moet hebben over hoe een ander het verlies van zijn kind verwerkt, zelfs als je daar zelf ervaring mee hebt, maar ik gok dat dat niet eens t geval is. Genoeg andere zaken waar je over kan roepen hoe jij vindt dat t hoort.
Er is een transitiefase vanuit de schok naar de erkenning toe. Die fase kan je geleidelijker laten verlopen door nog een beetje te doen alsof diegene er nog is. Het is heel normaal dat er een beetje gepraat wordt tegen de dode, vooral voor de plechtigheid.
Arjen stop je echt na volgend seizoen met zondag met lubach? Jij bent mijn nieuwsbron over dingen die soms iets achter blijven liggen. Ik zou het echt geweldig vinden als je door zou gaan je doet het geweldig :)
Goed dat hier aandacht voor is, een belangrijk punt is wel dat de zelfde techniek die gebruikt wordt om deepfakes te genereren ook kan worden gebruikt om deze te detecteren. Een video / plaatje / geluidsfragment kan dus in principe ook worden gecontroleerd door mensen zelf of instanties of deze fake is of niet.
Is alleen in de praktijk niet te doen. Nu zijn deep fakes nog relatief zeldzaam, maar het betekent ook, dat ik kan beeldbellen met het gezicht van Jack Sparrow. Dat zie ik het komende jaar wel als app verschijnen. Pak je favoriete scene uit een film en dat is genoeg info..
Ik denk dat ze er juist vatbaar voor zijn. Er hoeft maar één boze ex-Amish te zijn die een complot op internet parkeert met deepfake bewijsmateriaal erbij en dan kunnen ze hun spullen wel inpakken. Houd je de tv buiten de deur, dan zie je niet wat de buitenwereld met je van plan is, maar laat je iedereen (wel stiekem) tv kijken in de hoop goed geïnformeerd te zijn, dan leidt dit tot het geleidelijk vervagen van de Amish-cultuur of een abrupt einde, omdat de Amish tegen elkaar opgezet kunnen worden.
Ik was ooit in discussie met mensen die het duidelijke verschil niet zagen tussen echte drone beelden en het spelletje Flight Simulator X. Dus ik ben er heilig van overtuigd dat je het gros van de mensheid makkelijk voor de gek kan houden met Deep Fakes. Zelfs als ze slecht zijn.
ja dat vind ik ook. Iedereen kan nu gewoon van alles claimen en daar zelf bewijs bij fabriceren. Of het nou succesvol is of niet, het zal onze denkwijze, en dus ons gedrag, gaan beïnvloeden
Beste wat je nu kan doen is stoppen met voortplanten. Dit soort ontwikkelingen worden alleen maar erger en daarnaast krijgen we enorme klimaat problemen. De wereld op dit moment is niet geschikt om nieuwe mensen in te brengen.
Zeker een enge ontwikkeling. Hopelijk (best case-scenario) zal dit uiteindelijk leiden tot een afkoppeling tussen nieuws en politiek via social media. Dit zal helpen met het tegengaan van nepnieuws en ook verlichting brengen met de invloed van celebrities en influencers in politieke kwesties.
Jammer dat het seizoen alweer voorbij is. Ik kijk nu al uit naar de verkiezingen in 2021 want dan is er weer een ZML seizoen Ik zie jullie dan allemaal!
Eventuele oplossing: belangrijke videos voorzien van een digitale stempel zodat authenticiteit kan worden gewaarborgd, zoals b.v. bij een digitale polis
Je zou inderdaad zeker wel een digitale signature mee kunnen geven met fotos & videos, samen met een goede browser understeuning zou dat kunnen werken. Net als een "slotje" voor beveiliging van websites, zou je onder een video een digitaal certificaat kunnen tonen waarin aangegeven wordt door wie de echtheid van de video wordt gewaarborgd -- bijvoorbeeld NOS, of de afgebeelde persoon, of de eigenaar van een RUclips kanaal. Dan kan je nog steeds voor de gek gehouden worden door de ondertekenaar, maar weet je in ieder geval dat niemand daar na er nog aan gesleuteld heeft. Bij een interviewer kan bijvoorbeeld zowel de geinterviewde als de nieuwszender ondertekenen, zodat je weet dat beiden akkoord zijn met de weergave.
@@odw32 Maar als je dan iemand hebt gefilmd die iets deed of zei wat niet door de beugel kan of waar deze niet voor uit wil komen gaat die persoon natuurlijk nooit tekenen en kun je nooit op die manier bewijzen dat het diegene was Op zich wel een goed idee waar ik wel eens wat over na heb zitten denken. Ik dat er een soort van chain moet onstaan waarbij content die wordt gebruikt binnen andere content ook weer kan worden gesigneerd en herleid naar de daadwerkelijke bron. Wellicht dat camera's een soort DRM kunnen krijgen waarbij de complete array van onderdelen is gesigneerd, van lens tot sensor. Als er dan iets aan de camera wordt vervangen vervalt de DRM en is de camera niet meer "geldig". Als er dan een filmpje wordt gepost kan deze worden herleid naar de camera die het heeft gemaakt en kan uiteindelijk de echtheid worden bepaald. Vraag me alleen af of je niet simpelweg een beeldscherm kunt filmen waarmee dat valt te omzeilen, of dat dit te detecteren is..
@@fennadikketetten1990 Inderdaad kleine kans dat een minister tekent voor een kritisch undercover stuk van Zembla of Nieuwsuur over een fraude/schandaal -- maar de kijker kan dan wel zeggen: Ik vertrouw deze omroep en journalist. Als iemand anders dan vervolgens zeer selectief knipt & plakt of AI gebruikt om beelden te wijzigen, weet de kijker in ieder geval dat het afwijkt van het origineel. Uiteindelijk is waarheid altijd lastig weer te leggen met een camera, zelfs de meest "neutrale" nieuwsbronnen maken ook keuzes in hun selectie van wat "nieuwswaardig" is, en welke zinnen ze uit een interview knippen. Wiens berichtgeving je vertrouwt is uiteindelijk aan jezelf... maar ik denk inderdaad dat een "chain of custody" voor videos/fotos wel heel erg belangrijk wordt.
Dit is echt geweldig voor films ofzo als acteurs bijvoorbeeld overleden zijn (RIP Chadwick Boseman) waardoor die films zo gemaakt kunnen worden dat de persoon die die acteur speelt overlijdt, met iemand anders en zijn hoofd erop plakken
Arjen zat gewoon thuis toen dit werd opgenopen, het was allemaal een deepfake gemaakt door Willem-Alexander die wel eens een uitstapje wilde maken omdat hij niet meer op vakantie mocht. Op het einde viel de deepfake uit, waarschijnlijk waren de batterijen leeg.
Eerlijk vind ik de netflix versie realistischer, de deepfake lijkt alsof er zo’n gladde filter overheen zit die tiener meisjes gebruiken om puistjes en oneffenheden weg te werken
Waar je ook rekening mee moet houden: voor de deepfake zijn de bewerkte beelden als basis gebruikt en niet de originele beelden. Daardoor is het niet echt een eerlijke vergelijking.
echt, ik vond die youtube versie beter hoor , veel smoother, deed me denken aan deNiro uit casino, ook de ogen ja, wat ik net las in een comment hier, net of ie aan de dope was. Ik ga nog een keer kiekn
Op politiek niveau is dit onvermijdbaar, maar op persoonlijk niveau kan dit enorm tegengehouden worden. De AI(computer) heeft een gezicht nodig(voor training en gezichtsherkenning), dus als je iemand bent die heel veel foto's heeft op Social media, is de kans groter dat je een potentieel slachtoffer bent. Maar dit alles is natuurlijk onvermijdbaar in deze era waar iedereen MOET delen hoe die er tijdens de trip naar de supermarkt uitzag.
Het lijkt me goed om te zeggen dat computers niet unaniem geleerd hebben wat een gezicht is. Eigenlijk gaat het hier over leeralgoritmes (deep-learning, neural networks) die door veel onderzoekt geperfectioneerd zijn en daardoor beter werken. Heel simpel is AI gewoon beter geworden, en kunnen computers met de juiste programma's dus beter leren.
En de meeste informatie uit dit programma is ongeveer 2 jaar oud. Ondertussen kunnen we met AI´s al door je muur kijken op je wifi-reflectie en is Elon Musk bezig met het verrijken van mensen met ML door middel van zijn wizard´s hat.
Ik vind dit eigenlijk een goede ontwikkeling. Iedereen weet nu dat je niks op social media serieus kan nemen. De twijfel is weg. Dus ik hoop dat dit ervoor gaat zorgen dat fake news onmogelijk wordt, omdat niemand toch meer gelooft wat op social media wordt gepost, en dat men alleen nog serieus neemt wat eerst door meerdere mensen gecontroleerd is zoals de krant of het nieuws.
Tis gwn een nieuwe vorm van propaganda. Net zoals bij alle andere nieuwe stukken tech zal het een paar jaar duren voor we eraan wennen, daarna komt het wel goed. NL heeft een sterk en betrouwbaar medialandschap, dus zolang je niet op sociale media je nieuws volgt maar via kwaliteitskranten, NOS en RTL zal het goed komen.
@@aramisaac4292 ik heb het idee dat de groep mensen die zijn 'nieuws' van social media haalt steeds groter wordt. een groep die zelfs zo'n haat op het betrouwbare medialandschap richt dat de nos de logo's van zijn voertuigen moet verwijderen. en kijk naar amerika, waar het binnen enkele jaren is gelukt om miljoenen mensen te misleiden.
@@joppippoj "RTL, NOS, NU, TELEGRAAF" verspreiden allemaal desinformatie. Zij zijn niet vies van het verdraaien van context, en ook niet van het manipuleren van beeldmateriaal. Het enigste wat zij doen tegenwoordig is beeldvorming, zij publiceren dan ook allemaal ongeveer de zelfde artikelen.
@@jamesdiscord3647 zonder voorbeelden geloof ik je niet. ga naar de nos-site, rechts staan de 12 laatste artikelen, welke hiervan verspreiden desinformatie?
@delonix regiabij de Amerikaanse verkiezingen waren ze live in een pro-biden supporters groep aan het interviewen, hoezo niet ter plekke? Oja, het is goed om van verschillende bronnen informatie te krijgen, waaronder GEEN SOCIAL MEDIA, INTERNET FORUMS, FORUM VOOR DEMOCRATIE NIEUWS, TRUMP, POETIN, KIM-JONG-UN, ALLEMAAL ZENDERS VAN MENSEN ZELF (NIET COMMERCIËLE ZENDERS, DUS GEEN ZENDERS DIE NIET VAN EEN BEDRIJF ZIJN), WIKIPEDIA, EIGENLIJK ALLES VAN HET INTERNET, ook sites van NOS zelf, want soms kan je op een 'Namaak site' terecht komen en verspreiden nepnieuws, dit waren voorbeelden waar je je INFORMATIE NIET vandaan moet halen. Nu komt informatie waar je het wel van af moet halen: NOS, RTL, SCHOOL, AD, TELEGRAAF, HET PAROOL,
Google en wat andere bedrijven waren volgens mij bezig met een standaard voor dit soort dingen. Een soort signature die kan laten zien dat een foto of video vanaf het maken niet meer veranderd is als het uiteindelijk afgespeeld wordt. Mocht hij namelijk aangepast worden, ook al is het maar 1 pixel, dan klopt de signature niet meer en kan je dus zien dat ermee geklooid is. Lijkt mij een goede oplossing!
cryptografie is de oplossing hiervoor inderdaad, de originele uploader/eigenaar van de video kan het ondertekenen met een digitale handtekening (op dezelfde manier als hoe transacties van cryptocurrencies beveiligt zijn) en daarmee kan iedereen valideren of de video van bijvoorbeeld Mark Rutte echt van Mark Rutte is, zo niet, dan niet vertrouwen!
@@BasBastiaansen exact! Uiteraard is het dan aan websites/tv om een logootje te laten zien dat iets onbewerkt is of geverifieerd met de officiële eigenaar. In mijn optiek de beste oplossing. Bonustoepassing: modellenbusiness kan een ook gecheckt worden op bewerkte foto's met deze manier. Kan helpen voorkomen dat mensen vervormde zelfbeelden krijgen door onrealistische idealen.
Dit is het beste wat de mensheid nu kan overkomen. Alles op een scherm kan nep zijn en is daardoor onbetrouwbaar. Dit zal ons forceren om belangrijke dingen weer face to face te doen. Misschien worden we met zijn allen weer een beetje socialer.
15:01 Computers kunnen min of meer wel nep van echt onderscheiden als wij dat niet meer kunnen, dat soort learning heet 'Generative adversarial network' waarbij twee AI's elkaars werk checken. Dus bijvoorbeeld het ene AI maakt een nep gezicht en het andere AI beoordeeld of het een nep gezicht is of niet. De twee vechtende AI's maken elkaar slimmer en leren allerlei evenhard. Alleen op willekeurige momenten zal het ene AI slimmer zijn dan de andere, maar dat heft zich tijdens het leren weer op want ze hebben elkaar nodig om te groeien.
Klopt wel en niet. Klopt wel dat wanneer je twee neurale netwerken tegenover elkaar zet dat dan degene die controleert of het gezicht echt is/lijkt dan prima bij blijft bij het andere neurale netwerk. Klopt niet omdat dat neurale netwerk dat controleert of het een echt gezicht is dat alleen kan herkennen bij gezichten die gemaakt zijn door diens directe tegenstander, maar gezichten gemaakt door een ander neuraal netwerk zal ie doorgaans als 'echt' bestempellen.
@@STAR-LIGHT.1111 Zoals ik al eens zeg: Het is niet omdat het technisch gezien mogelijk is dat je het ook moet doen … Dikke bal hier van die IT-ers hoor.
Belangrijk onderwerp, hopelijk gaat de media er aan werken om dit goed aan te pakken. De waarheid is al een tijdje steeds minder helder aan het worden, dit is niet een stap in de goede richting
Als onzin je waarheid wordt en je waarheid onzin....benieuwd hoe we onze normen en waarden over 20 jaar dan reflecteren op maatschappelijke dingen als alles eigenlijk fake kan zijn behalve de dingen die je zelf in real life ziet ...
3:10 tutorial over hoe je dit moet doen in 5 stappen! *Stap 1* zoek een afbeelding van Kim Holland op op je computer. *Stap 2* Print hem uit. *Stap 3* Loop naar je printer en pak de foto. *Stap 4* Knip de foto uit en plak hem op een houten stokje. *Stap 5* Doe er een elastiekje omheen en doe hem om je hoofd en klaar is Kees!
Als je toch alleen maar een foto gebruikt hoef je jezelf echt niet te beperken tot de dunne zaaiiing aan porno-actrices uit Nederland, hoor... Dan kun je er niet zo goed eentje uit het buitenland pakken, eentje die er ook nog een klein beetje knap uitziet.
In de media is het ook nu al lekker makkelijk om dingen uit hun context te draaien en lekker te knippen en plakken naar gelieve. De vraag is... hoe maak je dan iets wel betrouwbaars?
Op het einde zeg je "Er begint nu een hele rare tijd, waarin computers ons voor de gek kunnen houden, en wij mensen nog niet weten hoe we daarmee om moeten gaan." Ik ben het volledig met je eens dat er nu een hele rare tijd aan zal gaan komen, maar we moeten wel in ons achterhoofd houden dat het nooit de computers zijn die ons voor gek gaan houden. Dit blijft uiteindelijk het werk van mensen zelf. Het zal nooit zo zijn dat een computer uit eigen zinnen een deepfakevideo gaat maken. Belangrijk detail.
Tenzij je een computer maakt die uit eigen zinnen een deepfakevideo gaat maken :) zo kan je ook weer computers maken die computers maken die deepfakevideos maken
Door het toepassen van Benford's Law is te achterhalen of een foto/filmpje echt is - toch? Althans dat meen ik me te herinneren van de docuserie 'Connected' (Netflix)
Vreemd dat Arjen niet even aanhaalt dat er een serie op Netflix staat, genaamd Black Mirror. Die al deze facetten tot in zeer emotioneel vlak aankaart. Dingen die je niet kan bedenken, maar wel weer hoe social media de wereld veranderd heeft. Bijv. je stelt niks voor als je geen volgers hebt op "instagram" en daardoor zakt je score en praat niemand met je op straat. Omdat dit nu nog gek lijkt, maar het begint al een beetje te borrelen.
Simulacra and Simulation. Een boek van een Franse filosoof uit 1984 die dit principe voorspelde. Jammer alleen dat je niet kan weten welke filosofische gedachten wanneer nou echt van toepassing zullen zijn.
Dat is dus de grap. Kunstmatige intelligentie bestaat al, dus in principe zijn er al computers die niet meer gediend hoeven te worden. Misschien is het nog niet zo vergevorderd, maar als wij deze lijn in de toekomst doortrekken heb je in de toekomst gewoon computers die geheel zelfstandig functioneren
Dit gaat er ook voor zorgen dat bronnen nog veel belangrijker worden. Je zult straks eerst de bron van een video moeten achterhalen voordat je er een oordeel over kan geven.
Je hoeft niet zo ver te gaan om de nut van wiskunde aan eerste klassers uit te leggen. Insta, yt, smartphones, economie, onze huizen enzovoort zouden niet bestaan/heel anders zijn als op een of ander manier er geen wiskunde was
Ik weet dat het super kwalitatief uitermate teleurstellend is dat er geen publiek bij is, maar dat gegrinnik op de achtergrond is gelukkig ook wel vermakelijk 😂😂😂 Ik kan niet wachten tot volgend seizoen!
Jammer dat je niet even iets korts heb gezegd over vocaloids toen je het had over dat computers stemmen gaan nadoen. Dat is gewoon software die kan zingen terwijl het niet eens heel nep klinkt. Ook in verschillende talen. Ondanks dit wel iemands stem als basis gebruikt.
Vocaloid is van 2000.. dus niet zo heel nieuw meer. Eigenlijk is het een beetje verouderde technologie.. Ingehaald door neurale netwerken. Sorry, Miku fans..
@@Ludifant geen idee hoe alles daar zich nu ontwikkeld. Al heel lang geen aandacht aan besteed. Weet ook niet goed hoe de software werkt om eerlijk te zijn. Verder wel coole technologie. Maar neuralle netwerken zijn nog lang niet goed consistent als die software lijkt me.
Toch knap dat Willem Alexander deze hele aflevering heeft gepresenteerd en dat Arjen er de hele tijd in het begin op was geplakt. Leuk dat Willy meewerkte voor de laatste aflevering!
Ja dat vond ik ook apart!
Wow is dat echt of was dat ook net?!?
Hé makker, daar was ik nog niet. Spoiler alert! en ik zie trouwens dat je profielfoto een deepfake is.
@@Skidmaster180 hé makker, dan moet je de video kijken en niet door de comments scrollen
Nee klopt niet... Hij kan niet zo lang praten zonder te stotteren
Nu kan Luckytv beter functioneren dan ooit.
Verschil met Willie van Lucky tv is dat, dat Haagse accent juist Willie zo mooi maakt. De stemvervormer zou er juist voor zorgen dat hij de dingen op een hele formele manier brengt.
@@dutchproxx6453 ik denk dat we het meer over deepfake video’s hebben
@@bowiemtl daar kunnen ze misschien wel wat mee ja, maar tegelijkertijd maakt het juist zo leuk dat je weet dat het juist een heel serieus gesprek is.
😂
nou denk dat luckytv dan goeie video kaart moet hebben heb namelijk verstand in deepfakes
Plot twist: eigenlijk presenteerde Ali Bongo dit met een deepfake van Arjen
Dubbele plot twist: Ali Bongo is eigenlijk altijd al Ali B geweest met een deepfake
@@tonywatermeloni9833 3 dubbele plot twist: Arjan en Ali Bongo zijn beide gedeepfaked door Ali-b
4 dubbele plot twist: Bokito is uit de dood opgestaan om te deepfaken dat hij Ali-b nadeed die Arjen en Ali Bongo deepfakete.
@@greatmysteriesoflife8436 dit was fake news, hoor... Deepfakes bestaan helemaal niet.
@@Ludifant Jawel
Jezus, mensen hebben nu al genoeg moeite met het concept van realiteit, nu komt dit ook nog steeds verder omhoog... Gaat leuk worden
Dit gaat helemaal goed komen. Er kan niets gebeuren zolang onze minister van defensie de inloggegevens van een geheime conferentie niet deelt op twitt... Oh, wacht...
Dit gaat inderdaad leuk worden, maar ik weet niet perse voor wie.
Inderdaad het woord realiteit is voor heel veel mensen al een klus om te onmvatten
Klopt. Al die filmpjes van Joe Biden die zich racistisch uitlaat of niet uit zijn woorden komt worden straks als deepfake bestempeld. Een hele natie misleid, nu al trouwens, en de realiteit bijna niet meer aantoonbaar
@evowarrior5 Ik zie dat je een goede muzieksmaak hebt
Ik ben het eens met je verhaal, maar leuke pf
Plottwist: het is toch Jamai
Je denkt het is Jamai maar het is Lubach woohoo
Omdat je denkt dat het jamai is is het Lubach (althans dat denk je) waardoor het eigenlijk toch Jamai is🤔🤔
Are you nuts?
❤️Dat is lang geleden!
Je denkt het is jamai maar net is lubach,
Alleen nu andersom😂
2020 is een Black Mirror episode
No cap. Ik zat gister black mirror te kijken en ik zie dit hier letterlijk in terug
True
Moest bij 14:00 meteen aan die episode denken waar die vrouw haar overleden man besteld in synthetische vorm...
@@rondleberik5337 SAME
Zoiezo
Plot: Arjen is al 4 jaar een deepfake en leeft samen met Elvis op een eiland in de oceaan
En samen met Tupac natuurlijk
Je vergeet met MJ ook ;)
@@TalaIsDarker en XXXTentacion natuurlijk
heb je die helemaal zelf verzonnen?
En met Gerri Eickhof natuurlijk
We moeten deep fakes gebruiken om ZML oneindig te laten doorgaan.
2000 IQ
Perfect idee
Hopen dat een goede schrijver dat doet dan. Stel je voor dat we eindeloze kutfilmpjes krijgen die zogenaamd door Lubach gepresenteerd worden xD
Genie 🤣🤣
Goed idee, maar nope. Deepfake moet verboden worden vind ik
Voor de film wereld is dit een geweldige vooruitgang maar voor de wereld is dit levens gevaarlijk
Voor games en VR wordt het ook geweldig.
voor de acteurs is dit een hel, waarom heb je nog een acteur, die miljoenen kost, nodig als je de computer gewoon een perfect personage voor de film kan laten maken. Wel heel leuk voor de kijker, films/series kunnen veel goedkoper worden gemaakt waardoor er meer leuke films en series komen.
@@anoniemw.222 ik denk dat de computers altijd wel een voorbeeld acteur nodig gaan hebben om een personage om heen te bouwen. Als ze het helemaal zelf moeten gaan maken wordt het beeld waarschijnlijk snel "te perfect" en mensen voelen zich vaak ongemakkelijk als ze iemand op beeld zien die te perfect is
@@nadiar.4638 Waar, maar die in perfecties kan je inbouwen. Wss heb je mensen nodig zodat de bewegingen er goed blijven uitzien (zoals de apen van planets of the apes). Alleen geen super dure acteurs meer nodig, iedereen kan het goed doen!
Ik ben wel blij dat hij op 6:03 een knop indrukt anders had ik echt gedacht dat het magie is...
Als je het niet erg vind, ik ga weer even wachten tot de SGP site weer online is want het is zondag
Dat overleden mensen nadoen om rauwende mensen te helpen is nog well het engste wat ik hier heb gehoord.
Straks zitten allemaal mensen in hun eigen wereldje te praten met spoken nooit in staat om verder te gaan of vrede te vinden met wat er is gebuerd.
Ook interessant om over na te denken: nu kon journalist Daniël Verlaan laatst een "top secret" meeting joinen en het werd meteen duidelijk dat de meetinglink + pincode was uitgelekt. Straks, gewoon met een vlag op de achtergrond en een filtertje over het gezicht, wordt dat een heel ander verhaal! "I'm sorry for being late, please continue"
5:52 niet waar, de Nintendo DSi kon dat al en dat ding kwam uit in 2008, het zag er echter niet zo strak uit als in snapchat
ja idd
Nintendo DSi had ook zo'n regenboog pen bij pictochat, die technologie hebben we allang verloren
Fuck ik ben oud, ik heb jarenlang zo'n ding gehad. Talloze keren op de grond gestuiterd en nog bleef hij werken.
@@Wasmachineman same, ik heb dat ding nog steeds
@@Wasmachineman die van mij is op vakantie in Oostenrijk kapot gevallen :(
Deel van een rouwverwerking is juist acceptatie dat de persoon is overleden, niet doen alsof hij/zij nog leeft.
Precies hebben we geen ruggengraat meer ofzo? Afstand doen van mensen hoort bij het leven. Iedereen maakt dat mee.
Mij lijkt dat ook nogal ongezond
Ik zou het bijna (technologische) necromancy willen noemen.
Ik denk dat je geen mening moet hebben over hoe een ander het verlies van zijn kind verwerkt, zelfs als je daar zelf ervaring mee hebt, maar ik gok dat dat niet eens t geval is.
Genoeg andere zaken waar je over kan roepen hoe jij vindt dat t hoort.
Er is een transitiefase vanuit de schok naar de erkenning toe.
Die fase kan je geleidelijker laten verlopen door nog een beetje te doen alsof diegene er nog is.
Het is heel normaal dat er een beetje gepraat wordt tegen de dode, vooral voor de plechtigheid.
Bedankt Arjen, nu heb ik weer iets extra om bang over te zijn
Arjen stop je echt na volgend seizoen met zondag met lubach? Jij bent mijn nieuwsbron over dingen die soms iets achter blijven liggen. Ik zou het echt geweldig vinden als je door zou gaan je doet het geweldig :)
Nieuwsuur heeft meestal ook goede rapportages, maar daar wordt het niet zo leuk gepresenteerd als hier
@@sheikranl3949 ja precies dat is net het ding Haha
13:56 waarom doen we alsof dit oké is? Dit is het ziekste en ongezondste idee wat ik ooit heb gehoord.
Black Mirror S1A2
Ja dit ook nog helpen met een rouwprocess noemen ziek.
Black Mirror "Be right back (S2E1)" joined the chat
Welke was dit ookalweer?
@@basr8385 Season 2 episode 1 waar haar man overlijdt in een verkeersongeluk en ze een lichaam besteld met zijn uiterlijk en innerlijk
Dacht precies hetzelfde.....
Dacht exact hetzelfde
Gvd dacht er gelijk aan en zag jouw comment.
Goed dat hier aandacht voor is, een belangrijk punt is wel dat de zelfde techniek die gebruikt wordt om deepfakes te genereren ook kan worden gebruikt om deze te detecteren. Een video / plaatje / geluidsfragment kan dus in principe ook worden gecontroleerd door mensen zelf of instanties of deze fake is of niet.
Nog wel ja .
Is alleen in de praktijk niet te doen. Nu zijn deep fakes nog relatief zeldzaam, maar het betekent ook, dat ik kan beeldbellen met het gezicht van Jack Sparrow. Dat zie ik het komende jaar wel als app verschijnen. Pak je favoriete scene uit een film en dat is genoeg info..
De Amish zullen zich nu wel trots voelen dat ze hier niet mee hoeven te dealen. Maar aan de andere kant, hebben ze dit waarschijnlijk niet gezien.
Ik denk dat ze er juist vatbaar voor zijn. Er hoeft maar één boze ex-Amish te zijn die een complot op internet parkeert met deepfake bewijsmateriaal erbij en dan kunnen ze hun spullen wel inpakken. Houd je de tv buiten de deur, dan zie je niet wat de buitenwereld met je van plan is, maar laat je iedereen (wel stiekem) tv kijken in de hoop goed geïnformeerd te zijn, dan leidt dit tot het geleidelijk vervagen van de Amish-cultuur of een abrupt einde, omdat de Amish tegen elkaar opgezet kunnen worden.
Ze mogen géén tv kijken!
Amish zijn minder gek dan je denkt...
Vroeg me af hoe het nu met de Amish gaat in deze tijd van corona en complotten.
Kunnen we even respect tonen voor de vriendin van Arjen die speciaal voor deze aflevering naar de redactie is gegaan om "Hey!" te roepen.
Vgm werkt ze bij de redactie
Klopt, zij maakt de plaatjes die elke aflevering in het scherm komen
Ik denk ook dat zij de deepfake heeft uitgevonden toen ze arjen ontmoette
Zij IS de redactie
Ze werkt bij het programma, zie yt kanaal "10e"
Plot twist: Arjen Lubach in deze video is eigenlijk ook een deepfake
Dat zeg jij nou wel heel leuk, maar hoe ben ik zeker dat jij een erudiete, waarheid vertellende penguin bent?
T zal me niks verbazen als hij volgende week met een filmpje komt waarin hij vertelt dat die hele zondag met lubach gedeepfaked is😂
@@sevenprovinces niet fucken met Ubuntu
Haha dacht hetzelfde
Ik dacht de hele video al dat het lichaam van Tex de wit was.
Echt genoten hiervan! Mindcontrol op zo'n level dit. Echt geniaal.
Ik was ooit in discussie met mensen die het duidelijke verschil niet zagen tussen echte drone beelden en het spelletje Flight Simulator X. Dus ik ben er heilig van overtuigd dat je het gros van de mensheid makkelijk voor de gek kan houden met Deep Fakes. Zelfs als ze slecht zijn.
Had eigenlijk verwacht dat aan het einde blijkt dat het Tex de Wit is.
Mijn favoriete karakter in ZML
Die moet de taak van het publiek opvangen :P
Dit is gewoon Eng...
ja dat vind ik ook. Iedereen kan nu gewoon van alles claimen en daar zelf bewijs bij fabriceren. Of het nou succesvol is of niet, het zal onze denkwijze, en dus ons gedrag, gaan beïnvloeden
En waanzinnig!
De Toekomst is hier
Vroeger diende foto's als bewijs... toen kwamen de photoshoppers maar hadden we altijd nog video
Beste wat je nu kan doen is stoppen met voortplanten. Dit soort ontwikkelingen worden alleen maar erger en daarnaast krijgen we enorme klimaat problemen. De wereld op dit moment is niet geschikt om nieuwe mensen in te brengen.
Trump leek niet echt, hij was niet oranje.
Trump is 365 dagen per jaar oranje supporter
Zoek dat kanaal Sassy Justice is op die video is geweldig, maker van South Park.
Dat komt omdat computers snappen hoe een gezicht eruit hoort te zien.
@@crushert 🤣
idi
Zeker een enge ontwikkeling. Hopelijk (best case-scenario) zal dit uiteindelijk leiden tot een afkoppeling tussen nieuws en politiek via social media. Dit zal helpen met het tegengaan van nepnieuws en ook verlichting brengen met de invloed van celebrities en influencers in politieke kwesties.
Dus goede betrouwbare journalistiek wordt nog weer belangrijker.
Die is al jaren kwijt.......
@@abbb3838 fabeltjesfuik incoming
@@abbb3838 ik gok dat jij ook vrij gevoelig gaat zijn voor de deep fake
terug naar de dorpsomroeper
En een goed functionerende democratie. In NL zullen we wss minder problemen hiermee krijgen dan in India ofzo
Jammer dat het seizoen alweer voorbij is. Ik kijk nu al uit naar de verkiezingen in 2021 want dan is er weer een ZML seizoen
Ik zie jullie dan allemaal!
Ik dacht dat Lubach ging stoppen? >_>
Eventuele oplossing: belangrijke videos voorzien van een digitale stempel zodat authenticiteit kan worden gewaarborgd, zoals b.v. bij een digitale polis
En hoe voorkom je dat ze die stempel niet gewoon copy pasten
@@addsreclame3264 De stempel zou een digitale handtekening over de hash van het videobeeld kunnen bevatten
Je zou inderdaad zeker wel een digitale signature mee kunnen geven met fotos & videos, samen met een goede browser understeuning zou dat kunnen werken.
Net als een "slotje" voor beveiliging van websites, zou je onder een video een digitaal certificaat kunnen tonen waarin aangegeven wordt door wie de echtheid van de video wordt gewaarborgd -- bijvoorbeeld NOS, of de afgebeelde persoon, of de eigenaar van een RUclips kanaal. Dan kan je nog steeds voor de gek gehouden worden door de ondertekenaar, maar weet je in ieder geval dat niemand daar na er nog aan gesleuteld heeft. Bij een interviewer kan bijvoorbeeld zowel de geinterviewde als de nieuwszender ondertekenen, zodat je weet dat beiden akkoord zijn met de weergave.
@@odw32 Maar als je dan iemand hebt gefilmd die iets deed of zei wat niet door de beugel kan of waar deze niet voor uit wil komen gaat die persoon natuurlijk nooit tekenen en kun je nooit op die manier bewijzen dat het diegene was
Op zich wel een goed idee waar ik wel eens wat over na heb zitten denken. Ik dat er een soort van chain moet onstaan waarbij content die wordt gebruikt binnen andere content ook weer kan worden gesigneerd en herleid naar de daadwerkelijke bron.
Wellicht dat camera's een soort DRM kunnen krijgen waarbij de complete array van onderdelen is gesigneerd, van lens tot sensor. Als er dan iets aan de camera wordt vervangen vervalt de DRM en is de camera niet meer "geldig". Als er dan een filmpje wordt gepost kan deze worden herleid naar de camera die het heeft gemaakt en kan uiteindelijk de echtheid worden bepaald. Vraag me alleen af of je niet simpelweg een beeldscherm kunt filmen waarmee dat valt te omzeilen, of dat dit te detecteren is..
@@fennadikketetten1990 Inderdaad kleine kans dat een minister tekent voor een kritisch undercover stuk van Zembla of Nieuwsuur over een fraude/schandaal -- maar de kijker kan dan wel zeggen: Ik vertrouw deze omroep en journalist. Als iemand anders dan vervolgens zeer selectief knipt & plakt of AI gebruikt om beelden te wijzigen, weet de kijker in ieder geval dat het afwijkt van het origineel.
Uiteindelijk is waarheid altijd lastig weer te leggen met een camera, zelfs de meest "neutrale" nieuwsbronnen maken ook keuzes in hun selectie van wat "nieuwswaardig" is, en welke zinnen ze uit een interview knippen.
Wiens berichtgeving je vertrouwt is uiteindelijk aan jezelf... maar ik denk inderdaad dat een "chain of custody" voor videos/fotos wel heel erg belangrijk wordt.
Dit is echt geweldig voor films ofzo als acteurs bijvoorbeeld overleden zijn (RIP Chadwick Boseman) waardoor die films zo gemaakt kunnen worden dat de persoon die die acteur speelt overlijdt, met iemand anders en zijn hoofd erop plakken
Ik vraag me dus af of die vrouw van de NOS wel echt is of gewoon een deepfake?
.....
.....
@V held
Heel NOS
Arjen zat gewoon thuis toen dit werd opgenopen, het was allemaal een deepfake gemaakt door Willem-Alexander die wel eens een uitstapje wilde maken omdat hij niet meer op vakantie mocht. Op het einde viel de deepfake uit, waarschijnlijk waren de batterijen leeg.
Besef dat er ook nog mensen in die zaal zitten😂
@@howtodisappearcompletely627 er zaten geen mensen in de zaal
@@JasperPijfers oja hij zit nu natuurlijk in zn kantoor
Goed om te zien dat Lubach weer ideeën heeft, China heeft hem vorige week echt getroffen!
haha geweldige afleveringen, humor was echt on point
Dit kan idd flink uit de hand lopen
@@Peter-ew2gq Zozo slim mannetje
Deze wereld is echt naar de knoppen
En wie zit er achter de knoppen?
@@Machielovic de illuminatie natuurlijk
@@Machielovic de elite. HELP, DE ELITE GAAT ONS VERMOORDEN. JAY Z, BEYONCÉ, KANYE WEST GAAN ONS VERMOORDEN VIA HET CORONA VACCIN VAN BILL GATES
@@larss7877 ik denk dat zij ons eerder gaan vermoorden door hun muziek.
Annuleer heel de kutzooi maar
Dat betekent dat Lubach gewoon door kan gaan na dit seizoen 🤗
Lubach thuis onderuit op de bank en wij ook, als we denken naar hem te kijken 😜
Eerlijk vind ik de netflix versie realistischer, de deepfake lijkt alsof er zo’n gladde filter overheen zit die tiener meisjes gebruiken om puistjes en oneffenheden weg te werken
Waar je ook rekening mee moet houden: voor de deepfake zijn de bewerkte beelden als basis gebruikt en niet de originele beelden. Daardoor is het niet echt een eerlijke vergelijking.
@@MV-sn1kf Ja dat was dubbel moeilijk. Had leuk geweest als de youtuber de oude Robert De Niro er weer terug in had gezet
Maar kijk die ogen bij de netflix versie, alsof ie aan de drugs zit
echt, ik vond die youtube versie beter hoor , veel smoother, deed me denken aan deNiro uit casino, ook de ogen ja, wat ik net las in een comment hier, net of ie aan de dope was. Ik ga nog een keer kiekn
ja, toch de youtuber hoor!
Worden ook veel goede dingen mee gedaan, denk maar aan DLSS 2.0
Helemaal top
Op politiek niveau is dit onvermijdbaar, maar op persoonlijk niveau kan dit enorm tegengehouden worden. De AI(computer) heeft een gezicht nodig(voor training en gezichtsherkenning), dus als je iemand bent die heel veel foto's heeft op Social media, is de kans groter dat je een potentieel slachtoffer bent. Maar dit alles is natuurlijk onvermijdbaar in deze era waar iedereen MOET delen hoe die er tijdens de trip naar de supermarkt uitzag.
Dit is gewoon een samenvatting van de Sam Harris Podcast The information Apocalypse.
Zelfs de termen gemeenschappelijke realiteit.
Het lijkt me goed om te zeggen dat computers niet unaniem geleerd hebben wat een gezicht is. Eigenlijk gaat het hier over leeralgoritmes (deep-learning, neural networks) die door veel onderzoekt geperfectioneerd zijn en daardoor beter werken. Heel simpel is AI gewoon beter geworden, en kunnen computers met de juiste programma's dus beter leren.
En de meeste informatie uit dit programma is ongeveer 2 jaar oud. Ondertussen kunnen we met AI´s al door je muur kijken op je wifi-reflectie en is Elon Musk bezig met het verrijken van mensen met ML door middel van zijn wizard´s hat.
3 jaar later, deze aflevering is gebruikt voor AI of Kamerlid 😂😂
Ik vind dit eigenlijk een goede ontwikkeling. Iedereen weet nu dat je niks op social media serieus kan nemen. De twijfel is weg. Dus ik hoop dat dit ervoor gaat zorgen dat fake news onmogelijk wordt, omdat niemand toch meer gelooft wat op social media wordt gepost, en dat men alleen nog serieus neemt wat eerst door meerdere mensen gecontroleerd is zoals de krant of het nieuws.
Stel je voor waar we over 40 jaar zijn, mind blown als je hier te lang over na denkt
Ik vind het beangstigend om mij voor te stellen hoe we er over 40 jaar bij zitten
@@damienmichiels4119 wat een doom denken man. Komt allemaal goed. Dadelijk heb je gwn een AI die deepfakes kan herkennen.
Leuk tijdperk gaan we in, feiten bestaan straks echt niet meer... Ben bang dat er veel ellende van gaat komen.
Tis gwn een nieuwe vorm van propaganda. Net zoals bij alle andere nieuwe stukken tech zal het een paar jaar duren voor we eraan wennen, daarna komt het wel goed. NL heeft een sterk en betrouwbaar medialandschap, dus zolang je niet op sociale media je nieuws volgt maar via kwaliteitskranten, NOS en RTL zal het goed komen.
@@aramisaac4292 ik heb het idee dat de groep mensen die zijn 'nieuws' van social media haalt steeds groter wordt. een groep die zelfs zo'n haat op het betrouwbare medialandschap richt dat de nos de logo's van zijn voertuigen moet verwijderen.
en kijk naar amerika, waar het binnen enkele jaren is gelukt om miljoenen mensen te misleiden.
@@joppippoj "RTL, NOS, NU, TELEGRAAF" verspreiden allemaal desinformatie. Zij zijn niet vies van het verdraaien van context, en ook niet van het manipuleren van beeldmateriaal. Het enigste wat zij doen tegenwoordig is beeldvorming, zij publiceren dan ook allemaal ongeveer de zelfde artikelen.
@@jamesdiscord3647 zonder voorbeelden geloof ik je niet. ga naar de nos-site, rechts staan de 12 laatste artikelen, welke hiervan verspreiden desinformatie?
@delonix regiabij de Amerikaanse verkiezingen waren ze live in een pro-biden supporters groep aan het interviewen, hoezo niet ter plekke?
Oja, het is goed om van verschillende bronnen informatie te krijgen, waaronder GEEN SOCIAL MEDIA, INTERNET FORUMS, FORUM VOOR DEMOCRATIE NIEUWS, TRUMP, POETIN, KIM-JONG-UN, ALLEMAAL ZENDERS VAN MENSEN ZELF (NIET COMMERCIËLE ZENDERS, DUS GEEN ZENDERS DIE NIET VAN EEN BEDRIJF ZIJN), WIKIPEDIA, EIGENLIJK ALLES VAN HET INTERNET, ook sites van NOS zelf, want soms kan je op een 'Namaak site' terecht komen en verspreiden nepnieuws, dit waren voorbeelden waar je je INFORMATIE NIET vandaan moet halen. Nu komt informatie waar je het wel van af moet halen: NOS, RTL, SCHOOL, AD, TELEGRAAF, HET PAROOL,
Google en wat andere bedrijven waren volgens mij bezig met een standaard voor dit soort dingen. Een soort signature die kan laten zien dat een foto of video vanaf het maken niet meer veranderd is als het uiteindelijk afgespeeld wordt. Mocht hij namelijk aangepast worden, ook al is het maar 1 pixel, dan klopt de signature niet meer en kan je dus zien dat ermee geklooid is. Lijkt mij een goede oplossing!
Dat gaat op zichzelf niet de oplossing zijn, maar het gaat al een stuk de goede kant op, en uiteindelijk zal zoiets wel de oplossing moeten zijn.
cryptografie is de oplossing hiervoor inderdaad, de originele uploader/eigenaar van de video kan het ondertekenen met een digitale handtekening (op dezelfde manier als hoe transacties van cryptocurrencies beveiligt zijn) en daarmee kan iedereen valideren of de video van bijvoorbeeld Mark Rutte echt van Mark Rutte is, zo niet, dan niet vertrouwen!
@@BasBastiaansen exact! Uiteraard is het dan aan websites/tv om een logootje te laten zien dat iets onbewerkt is of geverifieerd met de officiële eigenaar. In mijn optiek de beste oplossing.
Bonustoepassing: modellenbusiness kan een ook gecheckt worden op bewerkte foto's met deze manier. Kan helpen voorkomen dat mensen vervormde zelfbeelden krijgen door onrealistische idealen.
Als beeld en audio straks geen waarde meer heeft dan zijn we weer 100 jaar terug in de tijd.
Dit is het beste wat de mensheid nu kan overkomen. Alles op een scherm kan nep zijn en is daardoor onbetrouwbaar. Dit zal ons forceren om belangrijke dingen weer face to face te doen. Misschien worden we met zijn allen weer een beetje socialer.
Kan niet lekker inkomen deze week en bedenk me nu pas waar dat door komt... Geen ZML afgelopen zondag!
Plot twist: toen gert jan segers had gezegd dat hij 7 jaar in Egypte had gewoond was het gewoon een deep fake
15:01 Computers kunnen min of meer wel nep van echt onderscheiden als wij dat niet meer kunnen, dat soort learning heet 'Generative adversarial network' waarbij twee AI's elkaars werk checken. Dus bijvoorbeeld het ene AI maakt een nep gezicht en het andere AI beoordeeld of het een nep gezicht is of niet. De twee vechtende AI's maken elkaar slimmer en leren allerlei evenhard. Alleen op willekeurige momenten zal het ene AI slimmer zijn dan de andere, maar dat heft zich tijdens het leren weer op want ze hebben elkaar nodig om te groeien.
Ja, die comment van Arjen, dat de adverasry er altijd achteraan hobbelt was onzin.
Klopt wel en niet.
Klopt wel dat wanneer je twee neurale netwerken tegenover elkaar zet dat dan degene die controleert of het gezicht echt is/lijkt dan prima bij blijft bij het andere neurale netwerk.
Klopt niet omdat dat neurale netwerk dat controleert of het een echt gezicht is dat alleen kan herkennen bij gezichten die gemaakt zijn door diens directe tegenstander, maar gezichten gemaakt door een ander neuraal netwerk zal ie doorgaans als 'echt' bestempellen.
Psychiatrisch patiënt met schizo-affectieve stoornis en bijhorende hallucinaties hier. Welcome to my world, all.
Precies wat ik ook dacht tijdens de uitzending, het is net mijn psychotische episode 😳
@@STAR-LIGHT.1111 Zoals ik al eens zeg: Het is niet omdat het technisch gezien mogelijk is dat je het ook moet doen … Dikke bal hier van die IT-ers hoor.
Dank!
Congratulations you've found the RIGHT PLACE HERE;-))
Belangrijk onderwerp, hopelijk gaat de media er aan werken om dit goed aan te pakken. De waarheid is al een tijdje steeds minder helder aan het worden, dit is niet een stap in de goede richting
Ik stel voor. Terug naar 2010
Goeie aflevering van Black Mirror weer
alweer een reden waarom ik niet graag op de foto/video ga
Als onzin je waarheid wordt en je waarheid onzin....benieuwd hoe we onze normen en waarden over 20 jaar dan reflecteren op maatschappelijke dingen als alles eigenlijk fake kan zijn behalve de dingen die je zelf in real life ziet ...
1:35 ik ga stuk😅😂😂😂
Ey lubag tnks da was wel ff informatief intressant
3:10 tutorial over hoe je dit moet doen in 5 stappen!
*Stap 1* zoek een afbeelding van Kim Holland op op je computer.
*Stap 2* Print hem uit.
*Stap 3* Loop naar je printer en pak de foto.
*Stap 4* Knip de foto uit en plak hem op een houten stokje.
*Stap 5* Doe er een elastiekje omheen en doe hem om je hoofd en klaar is Kees!
Houten stokje is optioneel
Als je toch alleen maar een foto gebruikt hoef je jezelf echt niet te beperken tot de dunne zaaiiing aan porno-actrices uit Nederland, hoor... Dan kun je er niet zo goed eentje uit het buitenland pakken, eentje die er ook nog een klein beetje knap uitziet.
2 jaar later en die stem deep fake is extreem goed geworden
2023 en de stemmen van de presidenten spelen minecraft
Met dank aan dat mega server ding in Nederland ♡
Komt er nou wel of geen volgend seizoen?
Hele goeie video, dit maakt mensen bewuster
In de media is het ook nu al lekker makkelijk om dingen uit hun context te draaien en lekker te knippen en plakken naar gelieve. De vraag is... hoe maak je dan iets wel betrouwbaars?
ehm, er zijn nog andere media dan geluid en video. bijvoorbeeld een (online) krant.
@@chilanya In een krant kan je toch net zo goed onjuiste informatie verspreiden?
@@RaphaGamerNL een goede krant gebruikt journalisten die de informatie die erin komt, zorgvuldig controleren.
Op het einde zeg je "Er begint nu een hele rare tijd, waarin computers ons voor de gek kunnen houden, en wij mensen nog niet weten hoe we daarmee om moeten gaan." Ik ben het volledig met je eens dat er nu een hele rare tijd aan zal gaan komen, maar we moeten wel in ons achterhoofd houden dat het nooit de computers zijn die ons voor gek gaan houden. Dit blijft uiteindelijk het werk van mensen zelf. Het zal nooit zo zijn dat een computer uit eigen zinnen een deepfakevideo gaat maken. Belangrijk detail.
Tenzij je een computer maakt die uit eigen zinnen een deepfakevideo gaat maken :) zo kan je ook weer computers maken die computers maken die deepfakevideos maken
@@tiagogreeve685 Dit blijft in opdracht van de mensen.
@@tiagogreeve685 Precies, maar het begint wel bij ons
Maar het is punt is dat je een computer zo kan programmeren dat het dingen kan gaan doen die jij niet voorzien had
@@tiagogreeve685 ja zeker waar. Vrij eng.
DAME DA NE... Dame yo... Dame na no yo..
Anta ga suki de suki sugite
Dore dake tsuyoi osake de mo
yugemanai omoide ga
baka mitai..
Geen dank.
? Mijn romanji is niet goed genoeg hiervoor. Yugemanai? Bedoel je yumeganai (夢がない)?
Held
prachtig dit
@@Tinky1rs "Yugamanai" (歪まない)
Als de groei van kunstmatige intelligentie zo doorgaat ben ik benieuwd hoe we er bijzitten over 50 jaar.
Al die tijd presenteerd de koning dus gewoon al ZML
Door het toepassen van Benford's Law is te achterhalen of een foto/filmpje echt is - toch? Althans dat meen ik me te herinneren van de docuserie 'Connected' (Netflix)
Beste Lubach Deepfakes moet een opvolging krijgen in het binnenkort informeren wat er gaande is mag zeker een deel 2 zien
8:28 toch jammer...
Onwijs gevaarlijk,.... hopen dat blockchain technieken snel ontwikkeld gaan worden om dit soort beelden te scheiden van de werkelijkheid.
15:50 Maar ja we moeten allemaal ook wel een beetje kalm blijven. Daar drinken we op Willie!
de memes zijn geweldig ent gaat de wereld vernietigen
Analoog rocks! Papier gaat weer geld waard worden ;-)
Maar printers?
@@DutchDinosaur LOL!
geheel waar.
Waar word neps nieuws geboren?
"Bier?"
- Koning Willem-Alexander
Vreemd dat Arjen niet even aanhaalt dat er een serie op Netflix staat, genaamd Black Mirror. Die al deze facetten tot in zeer emotioneel vlak aankaart. Dingen die je niet kan bedenken, maar wel weer hoe social media de wereld veranderd heeft. Bijv. je stelt niks voor als je geen volgers hebt op "instagram" en daardoor zakt je score en praat niemand met je op straat. Omdat dit nu nog gek lijkt, maar het begint al een beetje te borrelen.
Simulacra and Simulation. Een boek van een Franse filosoof uit 1984 die dit principe voorspelde. Jammer alleen dat je niet kan weten welke filosofische gedachten wanneer nou echt van toepassing zullen zijn.
Maar gelukkig kunnen we dat door een AI laten uitzoeken :)
Niet computers houden ons voor de gek, maar de mensen die de computers bedienen. We doen het altijd zelf ....
Dat is dus de grap. Kunstmatige intelligentie bestaat al, dus in principe zijn er al computers die niet meer gediend hoeven te worden. Misschien is het nog niet zo vergevorderd, maar als wij deze lijn in de toekomst doortrekken heb je in de toekomst gewoon computers die geheel zelfstandig functioneren
Beste item van het seizoen
15:58 enge flex
Dit is het meest dystopische nieuws dat ik ooit heb gehoord
Dit gaat er ook voor zorgen dat bronnen nog veel belangrijker worden. Je zult straks eerst de bron van een video moeten achterhalen voordat je er een oordeel over kan geven.
Nieuwe kernvak op de basisscholen en erna? Bronnenkunde xD. Kan beter bij het vak nederlands anders hahaha
Vervelend voor alle 'media-haters', want journalistiek wordt belangrijker dan ooit.
Als iemand ooit zich af vraagt wat je kunt doen met wiskunde, nou dit dus, machine learning.
Spoiler alert: het is moeilijk
Je hoeft niet zo ver te gaan om de nut van wiskunde aan eerste klassers uit te leggen. Insta, yt, smartphones, economie, onze huizen enzovoort zouden niet bestaan/heel anders zijn als op een of ander manier er geen wiskunde was
@@mika2666
Nee hoor, het is helemaal niet moeilijk.
@@MM-tf4xt In principe bestaat bijna alles in ons dagelijks leven dat ook maar een beetje met techniek te maken heeft door wiskunde/natuurkunde
Daten?
Ik weet dat het super kwalitatief uitermate teleurstellend is dat er geen publiek bij is, maar dat gegrinnik op de achtergrond is gelukkig ook wel vermakelijk 😂😂😂 Ik kan niet wachten tot volgend seizoen!
Dat item van Donald Trump uit de vorige aflevering was ook een vorm van deep fake
Dat einde als Willem Alexander was echt goed🤣🤣
Jammer dat je niet even iets korts heb gezegd over vocaloids toen je het had over dat computers stemmen gaan nadoen. Dat is gewoon software die kan zingen terwijl het niet eens heel nep klinkt. Ook in verschillende talen. Ondanks dit wel iemands stem als basis gebruikt.
Vocaloid is van 2000.. dus niet zo heel nieuw meer. Eigenlijk is het een beetje verouderde technologie.. Ingehaald door neurale netwerken. Sorry, Miku fans..
@@Ludifant geen idee hoe alles daar zich nu ontwikkeld. Al heel lang geen aandacht aan besteed. Weet ook niet goed hoe de software werkt om eerlijk te zijn. Verder wel coole technologie.
Maar neuralle netwerken zijn nog lang niet goed consistent als die software lijkt me.
check ook wav2lip, dat heeft zeker potentie
Terug naar de persoonlijk ontmoetingen dus..... niets geloven TOTDAT je een persoon persoonlijk gesproken hebt.... LIFE !!!
Plottwist??? Jullie leven al jaren in de Matrix. How's that for a Plottwist 🤣✌
Wederom een ontwikkeling waar wij totaal niet klaar voor zijn, van de laagste lagen in onze samenleving, tot in de hoogste hoogtes van onze regering.
Wel makkelijk voor APA vermelding als ik me eigen bronnen kan maken.
Ik vind het geweldig!
Terwijl 75% van de deepfakes iemand is die Baka Mitai "zingt" ofzo
Eens in het debat voor een aantal maanden, nooit meer iets over horen daarna en niemand die er wat aan doet.