für das was ich es brauche reicht es, aber hier bemerkt man gut dass auch eine KI schlussendlich nur auf Daten zurückgreifen kann, die Menschen ins System eingetragen haben oder über elektronische Datenträger und Plattformen, Satelliten usw. erfasst wurden. Beim erstellen von Bildern/Simulationen anhand von einer Erzählung oder wie jetzt gezeigt mit Witzen und das anpassen der Sprache an Empfindungen, sind sie schon sehr gut. Darum ist es Wichtig dass man auch Fehler mitteilt die es beim analysieren der Korrekturen nicht bemerkt hat.
Ich habe GPT-4o mit Plus-Abo. Ich hab da auch so meine Standard-Fragen zum Testen. Momentan habe ich mit den 20$ im Monat kein Problem. Das Ding ist cool! Ach so ja, alle schreien hier nach Keno. Ich finde, du machst das echt super!
Ich habe GPT4o und heute wurde mir ein neues Feature angezeigt: Integration in Google Drive und OneDrive. Es kann aber nicht alle Dateien durchsuchen, sondern man muss auswählen, welche Datei man analysieren will. Speichern konnte ich auch nicht. Schön wäre es, wenn Datei Erstellung und vor allem das Erstellen von Word Dokumenten dieekt aus dem Chat funktionieren würde. Ich freue mich auf ein Video, bei dem ihr auf die multi Modalität eingeht. Weiter so!🎉
Ja, aber man kann in Word und anderen Office Programmen die Möglichkeit, ChatGPT einzufügen! Dann gibt man die Prompts ein und ein paar Details und kann sich so einen Aufsatz, Brief, E-Mail, Essay, usw. schreiben lassen!
Bei mir funktioniert die Umwandlung in eine Worddatei sehr gut, allerdings werde ich bei der 40 Variante irgendwann rausgeschmissen mit der Begründung das Datenvolumen sei erschöpft
@@MichaelDr.Hintelmann Bei OpenAI GPT4-Pro hat man ebenso nur begrenzte Volumen pro Monat... Deshalb habe ich Copilot Pro, kostet weniger und ist auf Windows zugeschnitten.
Einem Kollegen ists schon mal passiert, dass die KI direkt ankam mit "du wirkst in Eile zu sein, ich halte mich also kürzer" - nur von Intonation her...
Das Informationen die ausgegeben werden einfach falsch sind, ist für den wirklich produktiven Einsatz aus meiner Sicht ein ziemlicher Showstopper. Habe mir zum Testen eine Liste mit Spielen und den zugehörigen Metascores erstellen lassen. Sah auch gut aus, bis ich gemerkt habe, dass die Scores einfach erfunden waren. Mit ein paar Nachfragen hat Chat GPT die Daten zwar dann doch korrigiert, aber das rumprobieren und prüfen hat halt einfach zu viel Zeit gekostet. Mal abgesehen davon, dass die Liste keinesfalls vollständig war. Das mag natürlich daran liegen, dass ich die kostenlose Version verwende.
Hat nichts damit zu tun, das Du die kostenlose Version nutzt. Das liegt in der Natur und dem Prinzip nach dem LLMs funktionieren. Ausgaben von LLMs sollte nie einfach vertraut werden, und sollten immer nochmals von jemandem gegen geprüft werden. Du solltest das immer so betrachten als ob ein sehr guter notorischer Lügner vor Dir sitzt. Das was ausgespuckt wird mag zu 90% korrekt sein, aber der notorische Lügner streut zwischen die korrekten Sachen immer wieder kleine Lügen ein, die trotzdem auf den ersten Blick erst mal plausibel und schlüssig klingen. Das ist aber ähnlich wie bei Menschen. Du vertraust und glaubst ja auch nicht alles was dir jemand erzählt oder was in den Nachrichten geschrieben wird. Das Problem ist, viele Menschen denken, weil es von einer Maschine stammt, muß es korrekt sein, das ist es aber nicht und desto besser das wird, desto schwieriger wird es die Fehler zu erkennen.
Verstehe ich auch nicht. Eine KI sollte sowas nicht erfinden sondern in dem Fall validierte Daten heranziehen können, sofern sie Online ist könnte sie doch auf einschlägigen Seiten nach den Scores suchen. KI auf das Netz zugreifen lassen und Quellenangaben machen sollte sie dann schon.
@@bci3937 Erst einmal definiere KI. Selbst einfache Suchalgorithmen oder Approximations-Algorithmen fallen bereits unter KI. Zweitens LLMs worunter Systeme wie ChatGPT fallen, können nicht "denken". LLMs machen im Grunde nichts anderes als Textvervollständigung anhand von Wahrscheinlichkeiten. LLMs wurden mit Hilfe von Deep Learning Algorithmen und massen an Daten Trainiert in den Daten muster zu erkennen. Damit wird im Grunde ein riesiges statistisches Model Trainiert um auf einen Eingabetext und Kontext die statistisch wahrscheinlichsten nachfolgenden Wörter zu generieren. LLMs haben von daher keinerlei Verständnis des inhaltes und können auch nicht in dem Sinne denken oder irgendwelche Daten / Fakten auf deren richtigkeit Validieren. Was es für statistisch "richtig" hält (text ergänzt / generiert) hängt von den Daten ab mit denen es trainiert wurde. Sozusagen "Shit in, Shit out". Es ist eher erstaunlich das dieser Ansatz so gut funktioniert das es Menschen denken läßt LLMs seien in irgend einer Form "Intelligent" und könnten denken oder überhaupt verstehen was diese da an Text generieren. Jeder der LLMs irgendeine "intelligenz" zuspricht, unterliegt einem massiven irrglauben und einer Täuschung. Die Generierten Texte werden immer gewisse fehler enthalten, auch wenn diese nicht immer einfach zu erkennen sind und die Texte erst mal valide klingen. Dazu kommt noch die frage "Was ist Wahrheit oder richtig / falsch)?" Es gibt Texte mit denen LLMs trainiert wurden, die sich darin widersprechen. Da braucht man sich nur die ganze Gender Debatte oder Kriminalitätsdebatte ansehen in der die ganze Linke Bubble statistische Fakten leugnet oder einfach nach ihrem Gutdünken ignoriert oder uminterpretiert.
Ich hab ChatGPT 4o auch mal mit 4 und 3.5 verglichen. Und zwar hab ich mir die letzten 5 Stellen von Pi ausgeben lassen wollen. 4o antwortet wie 3.5 und gibt random irgendwelche Nummern aus, nur ChatGPT 4 wies mich darauf hin, dass Pi eine irrationale Zahl ist, die keine letzten Ziffern hat. Es scheint also noch große Unterschiede zwischen 4 und 4o zu geben, in der Qualität.
DU hast recht, ich habe es eben mal aus Neugierde auch mal ausprobiert und tatsächlich. Obwohl es auf dem gleichen Training basieren soll nur die Antwortausgabe und Verarbeitung im großen ganzen besser sein soll.. Krass, hätte ich nicht gedacht, danke
Super Video👍. Ich nutze gpt4o beruflich zum programmieren. Unser Output wird nicht so scharf gemessen... Aber ich würde sagen, er ist merkbar gestiegen. Das liegt aber hauptsächlich an der Merkfähigkeit der ki. Als Dev hat man oft sehr abstrakte Dinge vor sich. Die Ki hilft dabei die einzelnen Ebenen schneller greifbar zu machen. Man muss sich etwas weniger in einen vor Stunden begonnen Gedanken "hineinversetzen". Die Ki in so einen Gedankenfluss einzubinden, kann enorm helfen. Hoffe irgendwer versteht was ich meine😅. Aber im Vergleich zum Vorgänger fällt zunächst die Geschwindigkeit auf. Vir allem bei großen Scripten. 52000 Zeilen in wenigen Sekunden lesen ist jetzt noch schneller🤯
Ich denke nie? Die KI muss immerhin auch weiterentwickelt werden, und man benötigt auch am Arbeitsplatz trotzdem Personen, die die KI bedienen können. @@bauch16 Edit: Mein Punkt ist: wenn die meisten Entwickler jetzt schon KI zur Unterstützung nutzen, haben sie nen sicheren Job, denn die kennen schon jetzt die effizientesten Prompts
@@bauch16 da die Frage auf Entwickler bezogen ist, wollte ich das klarstellen und begründen, warum ich mir um meine berufliche Situation keine Gedanken mache. Die Frage ist also an die falsche Person gerichtet. Und der Versuch mit "1-2 Jahren" Drama in die Frage zu bringen, zeugt von Eifersucht. Was lässt dich denn auf diese Zahlen kommen?
Es ist spannend, dass ich mit dem OpenAI Client auf dem iPhone diese (5:05) Funktion ums Verr. nicht auslösen kann?! Also ich kann mit der KI plaudern und ich bin ein großer Fan davon aber ich kann die Kamera nicht aufschalten und diesen quasi "Voice Video Call" mit der KI führen; ich wüsste auch nicht, was ich irgendwo auswählen sollte oder einstellen? Ja, bevor jemand fragt, ich HABE auf 4o eingestellt, das natürlich. Und ich schaue täglich ob der Client ein Update bekommen hat... Ich kann das "o" irgendwie nicht nutzen.
Also, bei mir wurde einmal nachgefragt, ob ich 4o nutzen will. Jetzt kann ich unter einer Antwort ändern. Oben links kann ich das nicht auswählen. Das gilt wohl nur für Pro-User.
Vielen Dank für das tolle Video. Ich habe die erfahrung gemacht mit GPT4o also bezahlmodell, das ich ein Word mit einer Speisekarte für unser Restaurant hochladen konnte und es wurde auf Englisch übersetzt und konnte wieder als Word ausgegeben werden. Jedoch die exakt gleiche Speisekarte auf Französisch auch in ein Word, da will er nicht. Immer wieder interssant was geht und was nicht.
Ich glaube, dass die neue Siri auf ChatGPT basiert, da Apple selbst vermutlich mit der eigenen KI nicht mit Gemini mithalten kann. Daher jetzt auch die MacOS App und das ausschließliche Verwenden von iPhones bei den OpenAI Videos.
Wow! Ich finde die Tests, die du gemacht hast, sehr sinnvoll, dann abonniere ich deinen Kanal! 😊 Was ich immer gemacht habe, um die "Intelligenz" zu testen, war nach mehreren Rezepten zu fragen und dann die gesamte Einkaufsliste fehlerfrei zu generieren (wenn es ähnliche Zutaten gibt, dass er sie sinnvoll addiert). ...Chat GPT 4o kann das 🤯
Ihr macht tolle und interessante Videos, danke euch dafür! Danke auch für die Urlaubsvertretung. Wie sollte ich es aushalten auf eure Videos zu verzichten, bis Keno aus dem Urlaub zurück ist. Macht weiter so. 👍
Wollte nur kurz sagen dass ich das Video toll finde. Und klar sind die meisten hier Keno gewohnt, aber ich finds auch nicht verkehrt mal das Video mit dir zu sehen. Ich fands gut und freu mich auch auf mehr Videos mit dir zwischendurch oder auch gerne mal mit dir und Keno zusammen :D
Also ich finde die grunsätzliche Idee mit einer KI am PC zu sprechen reizvoll. Da GPT4o für Windows wohl noch kommt, würde ich gerne damit rumspielen und schauen in wie weit ich das vielleicht offline und persönlich haben kann, auf meine PC Anwendungen zugreifen lassen kann. Als Beispiel würde ich gerne wärend eines Online Games Fragen ob neue Mails angekommen sind mir die ggf. vorlesen lasse oder ob die KI mein Musikprogramm öffnen kann um Musik zu machen, sie sollte mich sogar erinnern dass ich das machen wollte. Außerdem würde mich interessieren auch die Sprach KI einfach und schnell zu trainieren, mit vorgefertigten Antworten auf Sprachsyntaxe. Einstellungen für den Grad des Humors und auch das lernen von lustigen Antworten die ich selber vorgebe und ggf Variablen. Die Lernmöglichkeiten via RAG sind dahingehend für den Privatanwender ziemlich gut und könnten ggf. auch für die Sprach KI funktionieren.
Ja, Mac Desktop App läuft bei mir. GPT4o am iPhone mit Voice seit etwa einer Woche (habe ein Plus-Abo). War überrascht, dass ich das Feature so schnell zur Verfügung hatte. Ist schon recht beeindruckend.
Ich habe es im App Store runter geladen und 44€ gezahlt dafür. Aber irgendwas stimmt da nicht, die Stimme ist wie Siri und hört sich nicht real an. Also eine Sprachsteuerung , woran kann das liegen
Interessant. Ich habe bisher nur GPT3.5 - anscheinend! Frage ich nach der Version 4o bekomme ich als Antwort, dass es diese nicht gibt. Frage ich beharrlich weiter wird eine Bingsuche gestartet und so die Version 4o gefunden, die Informationen hierzu analysiert und mir dann ausgegeben. Nachdem ich ein bisschen weiter gechattet habe kommt irgendwann der Hinweis, dass mein 4o Fragekontingent aufgebraucht sei und ich Plus kaufen müsse. Ich kann jedoch gar nicht auf die Version 3.5 zurück wechseln bzw. diese als Modell auswählen. Alles sehr verwirrend.
du kannst nicht mehr GPT-4o auswählen, nachdem ein Bild oder eine Suche im chat war. Dafür musst du einen einfachen chat haben, um zu wechseln. Bist du am Handy oder im Browser am PC?
Schönes Video in spannenden Zeiten. Meine Hoffnung ist, dass solche Modelle dabei helfen, Barrieren abzubauen, ob bei Behinderungen, bei sprachlichen Hürden oder bei Lernschwächen. Was wäre es genial, wenn beispielsweise RUclips-Videos in mehreren Sprachen verfügbar wären.
Hi, gutes Video! Hat Spaß gemacht zu sehen und war sehr informativ. Ein gutes Video wäre noch, wie man ein Mikrofon zur Prompt-Eingabe am PC richtig einrichtet und nutzt. Danke und viel Spaß noch!
Ich finde es gut wie Lukas durch das Video führt. Aber der Spruch Guck mal hier ist ein Keno Spruch. Wie wäre es wenn Lukas einen eigenen Spruch bekommt? Das würde ich Feiern.
gpt 4o ist schlechter als gpt 4(abgesehen von der Geschwindigkeit). Ich nutze GPT4o u.a. als Programmierhelfer und das größte Problem ist, das GPT4o immer einen zu starken Focus auf das vorhergesagte legt und neue Anweisungen daher fast komplett ignoriert. Ich dreh mich da mit gpt4o immer im Kreis, das ist bei GBT4 nicht so, dort werden dann auch gute Alternativen vorgeschlagen und nicht immer wieder die gleiche Antwort geliefert. GPT4o ignoriert ganz klare Anweisungen teilweise komplett...
Geht mir genauso. Einfache Dinge kann man sich damit noch erklären lassen aber etwas komplexere Programmieraufgaben kriegt man damit kaum noch hin. Ist 4o einmal auf dem falschen Weg, kriegt man es nicht mehr eingefangen.
Ich hab gerade versucht, aus einem Foto ein Cartoon zu erstellen, aber das funktioniert nicht. Gpt4o schreibt, dass eine Datei zum Download bereitgestellt wird, aber der Download funktioniert nicht. Wie hast Du das mit Kenos Bild genau gemacht?
12:30 "Also auch bei GPT-4o kann man sich nicht blind auf die KI verlassen." Findet ihr es sollte das generelle Ziel der Forschung sein, ein LLM zu entwickeln auf das man sich blind verlassen kann?
Also ich verfolge Chatbots so ziemlich von Anfang an in schöner Regelmäßigkeit und versuche auch oft sie in diverse Dinge mit einzubeziehen. Man merkt ganz schnell, das oft viel mehr versprochen wird, als die Chatbots dann auch halten können. Sie können bis heute teils die einfachsten Aufgaben nicht bewerkstelligen.Wie immer (von Sam Altman & Co ) viel heiße Luft um nichts ( Aktuelles Beispiel "Her" 🙄) Meine persönliche Einschätzung: Bis Chatbots das können bzw die Fähigkeiten besitzen, mit denen sie so großspurig geworben werden, vergehen sicher nochmal 5-10 Jahre. Als Alltagshelfer ganz nett, aber das wars dann auch !
Das aktuelle GPT-4o ist ohne Abo im Grunde nicht viel mehr als eine Demo. Ja, es ist beeindruckend im Vergleich zu GPT 3.5, aber sehr sehr limitiert was die Anzahl der Nachrichten und Daten Uploads angeht. Es fühlt sich für mich mehr so an, als würde Open AI einem mit ner leckeren Lasagne vor der Nase rum wedeln, nur um dann zu sagen dass die ja 20 € kostet.
Ich habe nur die "free"-Version und kann 4o schon seit ein paar Tagen nutzen. Der Unterschied zwischen 3.5 und 4o ist schon echt spürbar, schade nur, dass nach etwa 5 Nachrichten 4o für drei Stunden gesperrt wird. Eingeschränkte Nutzung halt, aber trotzdem brauchbar.
in severance gibt es wohl nur den einen platz in der mitte nicht noch weitere drumherum. ich denke, es ist einfach nur ein völlig typischer büroarbeitsplatz in nem großraumbüro.obwohl, warte mal, die rechner... ja, du könntest recht haben. ich feiere die serie auch total.
Ich muss als free User auf GPT 4-o noch warten und Mac App sagt auch, ich komme nicht rein (übrigens erlaubt die nur Google und E-Mail, ansonsten muss man über die Website gehen. Interessant eigentlich, dass Apple und Microsoft da nicht auftauchen, obwohl es die Mac App ist und Microsoft ja enger Partner von OpenAI ist). Ich warte noch. Habe aber ChatGPT auch kaum mehr genutzt, bin eher zu Bing und Perplexity gewechselt!
Habe mich schon gefragt ob dieses neue Audio feature nur bei mir nicht verfügbar ist, da so viele youtuber darüber quatschen. Mein Fehler, hätte das c't 3003 video schauen sollen. Hier gibts die Details. Danke euch!
also ist mir ist das persönlich ziemlich egal wer den Test vorliest und auch das man es deutlich sieht, was mich aber so richtig stört ist das Ringlicht was sich im Glas der Brille spiegelt.
Ist weniger absurdes halluzinieren nicht schlechter als völlig absurdes für den Nutzer? Das eine lässt sich leicht erkennen aber wenn es weniger absurd wird, kann man sich nicht mehr so einfach sicher sein, ob es jetzt eine Halluzination ist oder nicht. Entsprechend kann man sich bei keiner Antwort mehr sicher sein, weil alles eine sein könnte und muss wieder alles auf die Waagschale legen 🙈
GPT-4o wurde in einem Zugang die Woche freigeschaltet, aber in den anderen noch nicht. Vermutlich weil ich die wenig nutze. Ansonsten gerne Video zu den ganzn Möglichkeiten
An welcher Stelle werden bei der Artikelerstellung nach den Sprachmodellen eigentlich die ganzen Rechtschreibfehler und halben Sätze eingestreut? Macht ihr das noch manuell?
Solange diese KI "trainiert" werden müssen, ist das alles irgendwie nichts halbes nichts ganzes. 4o hat den Trainingstand von Ende '22 Anfang '23.... Sprich veraltete informationen.
Alles klar, Gott! Hier kommt noch ein wilder Ritt: Martin Luther, ein Schokoladenkuchen und ein Raspberry Pi sitzen in der Bibliothek. Luther ist tief in seine Thesen vertieft, der Kuchen chillt auf einem Teller und der Raspberry Pi bastelt an einem neuen Projekt. Plötzlich schaut der Schokoladenkuchen auf und fragt: "Hey Luther, wenn du so klug bist, warum hast du nicht 'ne Kirche aus Schokolade gemacht? Die wäre doch viel beliebter!" Luther lacht und antwortet: "Weil Schokolade zwar die Seele wärmt, aber nicht die Sünden vergibt, mein süßer Freund!" Der Raspberry Pi piepst: "Ja, und weil Schokolade bei 25 Grad schmilzt, und das ist einfach keine stabile Basis für eine Reformation!" Daraufhin lacht der Schokoladenkuchen: "Na gut, dann bleib ich eben hier und mach die Leute glücklich. Jeder hat so seinen Zweck!" Luther grinst: "Genau, jeder hat seine Mission, ob du Sünden vergibst oder nur verdammt lecker bist!"
Und was genau "gibt" dir das jetzt? In welcher spaßlosen Lebensphase müsste ich mich befinden um an soetwas Freunde zu empfinden? Sinnlose Zeitverschwendung.
Nicht in die Irre führen lassen... GTP-4o ist NICHT kostenlos. Man hat nur einen kostenlosen Testzeitraum. Danach flutscht es automatisch wieder auf GPT-3.5
@@ct3003 Ich hab's jetzt noch mal ausprobiert und ich glaube ich muss mich entschuldigen 🙈 Jetzt geht's wieder. Ich hab's wohl irgendwie geschafft das dauerhaft abzuschalten. SORRY 😁.
ChatGPT ist zwar minimal langsamer als Gemini, aber solange Gemini mir sagt, ein Reifenwechsel kostet bei Regen mehr Geld, solange ist Gemini einfach nicht zu gebrauchen.
Das stimmt nicht so ganz, Chatgpt 4o den Voicemode kann man schon am Smartphone nutzen. Man muss es nur umstellen. Ich habe es schon vor einigen Tagen getestet.
Leider musste ich feststellen, es ist genau gleich nervig. Es belehrt, gibt Falschantworten und ist einfach so oft unbrauchbar. Ich erkenne keine Verbesserung in der Logik zu 3.5. Pi AI ist sehr viel weniger nerviger, wenn es auch nicht so gute Texte generiert. Es ist einfach nicht so anstrengend. und versteht auch Voice und Antwortet Allerdings ignorieren alle AI Programme regelmäßig Anweisungen. Und sie müssen das letze Wort behalten. Sagt man sei still, schreiben sie immer was. Im Moment nur eine Spielerei und leider unzuverlässig und meistens unbrauchbar. Wenn man fragt: kannst du Bilder erstellen - nein kannst du Lieder erstellen oder verbessern - ja Und das ist nunmal falsch! Er faselt was von Liedtexten, das war aber nie meine Frage und das steht da auch nicht. Erst nachdem man drei Mal nachfragte, kommt die richtige Antwort - nein. Nur anstrengend sowas.
Habe meine erste Diplomarbeit und Dissertation zum Thema schon Ende der 90er erhalten: Was soll eigentlich der ganze Hype zum Thema??? Kein einziges Ereignis erhalten !!! Reine Zeit & Geld Verschwendung: egal welches GPT : Entweder das Limit ist sofort erreicht oder du bekommst genau das was du den digitalen "Sondermüll" gefragt hast als Antwort in Form einer weiteren sugg. Frage:1:1 zurück!!! Auf dem C64 mit 8 Bit hatte wir das Spiel schon in den 80ern ohne Abo nur Abzockerei !!! Wenn man ChatGPT mal selbst nach dem Sinn fragt der gleiche Blödsinn ! ALLES GEKÜNDIGT! Bin selbst Dozent...
Da war es wieder - das falsche "guck mal hier"... Keno fehlt... Joke wäre es jetzt wenn demnächst Keno wieder vor der Kamera steht, aber das Voiceover von dem guck mal hier vom Dude aus diesem Video hier reineditiert wird, und andersrum auch...
Wer will Emotionen einer KI? Eine KI ist eine Maschine, sie leidet nicht und stirbt nicht und hat deshalb auch keine Gefühle. Wer will da belogen werden?
der pc wird sich nie durchsetzen sagte man vor 30 jahren siehe heute. Deine Denkweise ist also Quatsch. Eine KI mit Emotionen wäre echt top für Roboter.
@@Beluxo Emotionen haben einen Zweck, nämlich, sich über innere Zustände auszutauschen. Sie bilden die Grundlage für soziale Interaktion. Vertrauen beruht darauf, dass man nicht belogen wird - besonders über die Gefühlswelt des Gegenübers, und Opportunismus versucht, über seine wahren Gefühle hinwegzutäuschen, um einen Vorteil zu erlangen. Roboter mit Gefühlen sind somit Ausdruck von Opportunismus, am Beispiel der Pflege, Ersatz für echte, menschliche Interaktion, um sich nicht selbst kümmern zu müssen. Wenn wir diesen Weg gehen, können wir uns auch gleich selbst abschaffen, denn dann gibt es nichts, was uns von Maschinen unterscheidet. Das ganze Menschsein, die Tatsache, dass wir überhaupt sozial interagieren, dass wir fürsorglich sind, Mitgefühl haben und um unsere Toten trauern, beruht einzig auf der Tatsache, dass wir leidensfähig und sterblich sind, dass wir zuverlässig wissen, dass bestimmte Handlungen dieselben, inneren Reaktionen bei uns wie jedem anderen hervorrufen. Ich glaube deshalb nicht, dass sich Roboter mit Emotionen durchsetzen werden, weil der Mensch auf Wahrheit angewiesen ist und emotionale Maschinen ablehnen wird. Ich hoffe es zumindest sehr.
Leider keine Info zum knowledge cutoff. Für mich ein kill-kriterium. Jetzt ist man zwar nur noch 9 Monate alt, aber nächsten Minat sind es schin 10,dann 11...
@@ct3003 eigentlich hatte ich die Antwort schon mitgeliefert. 4o ist cutoff 10/2023. Sieht man auf auf der LLM Vergleichsseite. Aber wie gesagt, das altert jeden Monat. Wohingegen Gemini und Copilot nicht altern
Habe Zugriff drauf mit der kostenlose Variante allerdings sind das nur 3 oder 4 Nachrichten, Mal schauen ob und wann es sich ändert. Aber ein Geschenken Gaul schaut man nicht ins Maul
Noch mal eine Frage von einem blinden Abonnenten: Wann testet ihr endlich mal unzensierte K.I.s und testet die Bedienbarkeit auch mal auf ihre Barrierefreiheit. Sprich, sind die Schaltflächen sinnvoll beschrieben oder heißt jede Taste nur wie üblich "Schalter" und man kann mal raten. Bis lang ist das alles leider nur was für sehende Menschen die "nur langweiligen Kram" beschrieben haben wollen.
Ich habe gpt 4o schon freigeschaltet inklusive Spracheingabe. Habe vorgestern getestet wie gut chat gpt auf Kölsch die Gesetze der Thermodynamik erklaren kann. Ergebnis ist erstaunlich gut, ich habe keine fachlichen Fehler entdeckt und das Kolsch war auch ok
@@clara.padbergDu konntest die KI auf fachliche Fehler kontrollieren, wenn es um Thermodynamik geht?😮😅 Respekt! Ich bin froh, dass ich die Thermodynamik Klausur in meinem Maschinenbau Studium bestanden habe.
Warum ich eine Spracheingabe beim Sprachassistenten langsamer machen sollte nur weil die Reaktion drauf lange dauert erschließt sich mir nicht. Wenn ich Siri schnell Frage wie das Wetter ist nimmt es das Kommando ganz normal an. Eben nur die Ausgabe dauert länger.
Ich kann "Alle Kinder" zum Generieren empfehlen. Da kommen echte brüller raus :D... Alle Kinder Witze sind so was wie: Alle Kinder gehen über die Brücke aus Gunter der schaut runter. :|
Also ich weiß nicht ob ich damit alleine dastehe aber fällt euch nicht auch auf dass die Reaktionszeit der KI nur deswegen so schnell ist weil sie in den ersten Sekunden nur das vom User eingegebene wiederholt und ein paar dämliche Bemerkungen dazu macht während sie im Hintergrund erst lange nach der eigentlichen Antwort sucht. 🤔
"Ich bin kein KI-Keno" ist genau das, was ein KI-Keno sagen würde 🤔
Top Kommentar 😂
Wegen der Halluzinationen? 😁
Währe aber toll wenn beide ab un zu Videos machen
für das was ich es brauche reicht es, aber hier bemerkt man gut dass auch eine KI schlussendlich nur auf Daten zurückgreifen kann, die Menschen ins System eingetragen haben oder über elektronische Datenträger und Plattformen, Satelliten usw. erfasst wurden. Beim erstellen von Bildern/Simulationen anhand von einer Erzählung oder wie jetzt gezeigt mit Witzen und das anpassen der Sprache an Empfindungen, sind sie schon sehr gut. Darum ist es Wichtig dass man auch Fehler mitteilt die es beim analysieren der Korrekturen nicht bemerkt hat.
Ich habe GPT-4o mit Plus-Abo. Ich hab da auch so meine Standard-Fragen zum Testen. Momentan habe ich mit den 20$ im Monat kein Problem. Das Ding ist cool!
Ach so ja, alle schreien hier nach Keno. Ich finde, du machst das echt super!
Jub, macht er super :D
Er und Omni sind der Hammer.
Omni ergänzt den Informatiker.
Er ergänzt Keno.
Symbtiotisch.
Ihr könnt auch gerne eine Team Arbeit abliefern. Keno klingt etwas humorvoller aber sonst nehmt Ihr Euch nichts.
Ich habe nur mit den 20$ nen Problem. ;)
Hi, habe auch das Plus Abo, aber ist es jetzt nicht überflüssig, da Chat Gpt 4 Omni schneller und dazu auch kostenlos ist ?
Die KI wird immer mehr wie ein richtiger Mitarbeiter. Mal kommt was brauchbares und mal nicht. Am Ende kann ich es auch gleich selber machen xD
😂🥲
Ich habe GPT4o und heute wurde mir ein neues Feature angezeigt: Integration in Google Drive und OneDrive. Es kann aber nicht alle Dateien durchsuchen, sondern man muss auswählen, welche Datei man analysieren will. Speichern konnte ich auch nicht. Schön wäre es, wenn Datei Erstellung und vor allem das Erstellen von Word Dokumenten dieekt aus dem Chat funktionieren würde.
Ich freue mich auf ein Video, bei dem ihr auf die multi Modalität eingeht.
Weiter so!🎉
Ja, aber man kann in Word und anderen Office Programmen die Möglichkeit, ChatGPT einzufügen!
Dann gibt man die Prompts ein und ein paar Details und kann sich so einen Aufsatz, Brief, E-Mail, Essay, usw. schreiben lassen!
Bei mir funktioniert die Umwandlung in eine Worddatei sehr gut, allerdings werde ich bei der 40 Variante irgendwann rausgeschmissen mit der Begründung das Datenvolumen sei erschöpft
@@MichaelDr.Hintelmann
Bei OpenAI GPT4-Pro hat man ebenso nur begrenzte Volumen pro Monat...
Deshalb habe ich Copilot Pro, kostet weniger und ist auf Windows zugeschnitten.
Einem Kollegen ists schon mal passiert, dass die KI direkt ankam mit "du wirkst in Eile zu sein, ich halte mich also kürzer" - nur von Intonation her...
Das Informationen die ausgegeben werden einfach falsch sind, ist für den wirklich produktiven Einsatz aus meiner Sicht ein ziemlicher Showstopper. Habe mir zum Testen eine Liste mit Spielen und den zugehörigen Metascores erstellen lassen. Sah auch gut aus, bis ich gemerkt habe, dass die Scores einfach erfunden waren. Mit ein paar Nachfragen hat Chat GPT die Daten zwar dann doch korrigiert, aber das rumprobieren und prüfen hat halt einfach zu viel Zeit gekostet. Mal abgesehen davon, dass die Liste keinesfalls vollständig war. Das mag natürlich daran liegen, dass ich die kostenlose Version verwende.
Hat nichts damit zu tun, das Du die kostenlose Version nutzt. Das liegt in der Natur und dem Prinzip nach dem LLMs funktionieren. Ausgaben von LLMs sollte nie einfach vertraut werden, und sollten immer nochmals von jemandem gegen geprüft werden. Du solltest das immer so betrachten als ob ein sehr guter notorischer Lügner vor Dir sitzt. Das was ausgespuckt wird mag zu 90% korrekt sein, aber der notorische Lügner streut zwischen die korrekten Sachen immer wieder kleine Lügen ein, die trotzdem auf den ersten Blick erst mal plausibel und schlüssig klingen. Das ist aber ähnlich wie bei Menschen. Du vertraust und glaubst ja auch nicht alles was dir jemand erzählt oder was in den Nachrichten geschrieben wird. Das Problem ist, viele Menschen denken, weil es von einer Maschine stammt, muß es korrekt sein, das ist es aber nicht und desto besser das wird, desto schwieriger wird es die Fehler zu erkennen.
Verstehe ich auch nicht. Eine KI sollte sowas nicht erfinden sondern in dem Fall validierte Daten heranziehen können, sofern sie Online ist könnte sie doch auf einschlägigen Seiten nach den Scores suchen. KI auf das Netz zugreifen lassen und Quellenangaben machen sollte sie dann schon.
@@bci3937 Erst einmal definiere KI. Selbst einfache Suchalgorithmen oder Approximations-Algorithmen fallen bereits unter KI. Zweitens LLMs worunter Systeme wie ChatGPT fallen, können nicht "denken". LLMs machen im Grunde nichts anderes als Textvervollständigung anhand von Wahrscheinlichkeiten. LLMs wurden mit Hilfe von Deep Learning Algorithmen und massen an Daten Trainiert in den Daten muster zu erkennen. Damit wird im Grunde ein riesiges statistisches Model Trainiert um auf einen Eingabetext und Kontext die statistisch wahrscheinlichsten nachfolgenden Wörter zu generieren. LLMs haben von daher keinerlei Verständnis des inhaltes und können auch nicht in dem Sinne denken oder irgendwelche Daten / Fakten auf deren richtigkeit Validieren. Was es für statistisch "richtig" hält (text ergänzt / generiert) hängt von den Daten ab mit denen es trainiert wurde. Sozusagen "Shit in, Shit out". Es ist eher erstaunlich das dieser Ansatz so gut funktioniert das es Menschen denken läßt LLMs seien in irgend einer Form "Intelligent" und könnten denken oder überhaupt verstehen was diese da an Text generieren. Jeder der LLMs irgendeine "intelligenz" zuspricht, unterliegt einem massiven irrglauben und einer Täuschung. Die Generierten Texte werden immer gewisse fehler enthalten, auch wenn diese nicht immer einfach zu erkennen sind und die Texte erst mal valide klingen. Dazu kommt noch die frage "Was ist Wahrheit oder richtig / falsch)?" Es gibt Texte mit denen LLMs trainiert wurden, die sich darin widersprechen. Da braucht man sich nur die ganze Gender Debatte oder Kriminalitätsdebatte ansehen in der die ganze Linke Bubble statistische Fakten leugnet oder einfach nach ihrem Gutdünken ignoriert oder uminterpretiert.
Ich hab ChatGPT 4o auch mal mit 4 und 3.5 verglichen. Und zwar hab ich mir die letzten 5 Stellen von Pi ausgeben lassen wollen. 4o antwortet wie 3.5 und gibt random irgendwelche Nummern aus, nur ChatGPT 4 wies mich darauf hin, dass Pi eine irrationale Zahl ist, die keine letzten Ziffern hat.
Es scheint also noch große Unterschiede zwischen 4 und 4o zu geben, in der Qualität.
DU hast recht, ich habe es eben mal aus Neugierde auch mal ausprobiert und tatsächlich. Obwohl es auf dem gleichen Training basieren soll nur die Antwortausgabe und Verarbeitung im großen ganzen besser sein soll.. Krass, hätte ich nicht gedacht, danke
Super Video👍. Ich nutze gpt4o beruflich zum programmieren. Unser Output wird nicht so scharf gemessen... Aber ich würde sagen, er ist merkbar gestiegen. Das liegt aber hauptsächlich an der Merkfähigkeit der ki. Als Dev hat man oft sehr abstrakte Dinge vor sich. Die Ki hilft dabei die einzelnen Ebenen schneller greifbar zu machen. Man muss sich etwas weniger in einen vor Stunden begonnen Gedanken "hineinversetzen". Die Ki in so einen Gedankenfluss einzubinden, kann enorm helfen. Hoffe irgendwer versteht was ich meine😅.
Aber im Vergleich zum Vorgänger fällt zunächst die Geschwindigkeit auf. Vir allem bei großen Scripten. 52000 Zeilen in wenigen Sekunden lesen ist jetzt noch schneller🤯
Ich denke nie? Die KI muss immerhin auch weiterentwickelt werden, und man benötigt auch am Arbeitsplatz trotzdem Personen, die die KI bedienen können. @@bauch16
Edit: Mein Punkt ist: wenn die meisten Entwickler jetzt schon KI zur Unterstützung nutzen, haben sie nen sicheren Job, denn die kennen schon jetzt die effizientesten Prompts
@@bauch16 Eifersucht steht keinem. Bin hauptberuflich Systemadministrator😜
@@derchris3407Lass dir das Wort besten mal von ChatGPT erklären.
@@bauch16 da die Frage auf Entwickler bezogen ist, wollte ich das klarstellen und begründen, warum ich mir um meine berufliche Situation keine Gedanken mache. Die Frage ist also an die falsche Person gerichtet. Und der Versuch mit "1-2 Jahren" Drama in die Frage zu bringen, zeugt von Eifersucht. Was lässt dich denn auf diese Zahlen kommen?
Heißt das du lässt dir von der ki deinen eigenen code erklären?
Es ist spannend, dass ich mit dem OpenAI Client auf dem iPhone diese (5:05) Funktion ums Verr. nicht auslösen kann?! Also ich kann mit der KI plaudern und ich bin ein großer Fan davon aber ich kann die Kamera nicht aufschalten und diesen quasi "Voice Video Call" mit der KI führen; ich wüsste auch nicht, was ich irgendwo auswählen sollte oder einstellen? Ja, bevor jemand fragt, ich HABE auf 4o eingestellt, das natürlich. Und ich schaue täglich ob der Client ein Update bekommen hat... Ich kann das "o" irgendwie nicht nutzen.
Also, bei mir wurde einmal nachgefragt, ob ich 4o nutzen will. Jetzt kann ich unter einer Antwort ändern. Oben links kann ich das nicht auswählen. Das gilt wohl nur für Pro-User.
Vielen Dank für das tolle Video. Ich habe die erfahrung gemacht mit GPT4o also bezahlmodell, das ich ein Word mit einer Speisekarte für unser Restaurant hochladen konnte und es wurde auf Englisch übersetzt und konnte wieder als Word ausgegeben werden. Jedoch die exakt gleiche Speisekarte auf Französisch auch in ein Word, da will er nicht. Immer wieder interssant was geht und was nicht.
Ich glaube, dass die neue Siri auf ChatGPT basiert, da Apple selbst vermutlich mit der eigenen KI nicht mit Gemini mithalten kann.
Daher jetzt auch die MacOS App und das ausschließliche Verwenden von iPhones bei den OpenAI Videos.
Wow! Ich finde die Tests, die du gemacht hast, sehr sinnvoll, dann abonniere ich deinen Kanal! 😊
Was ich immer gemacht habe, um die "Intelligenz" zu testen, war nach mehreren Rezepten zu fragen und dann die gesamte Einkaufsliste fehlerfrei zu generieren (wenn es ähnliche Zutaten gibt, dass er sie sinnvoll addiert).
...Chat GPT 4o kann das 🤯
Ihr macht tolle und interessante Videos, danke euch dafür! Danke auch für die Urlaubsvertretung. Wie sollte ich es aushalten auf eure Videos zu verzichten, bis Keno aus dem Urlaub zurück ist. Macht weiter so. 👍
Wollte nur kurz sagen dass ich das Video toll finde. Und klar sind die meisten hier Keno gewohnt, aber ich finds auch nicht verkehrt mal das Video mit dir zu sehen. Ich fands gut und freu mich auch auf mehr Videos mit dir zwischendurch oder auch gerne mal mit dir und Keno zusammen :D
Also ich finde die grunsätzliche Idee mit einer KI am PC zu sprechen reizvoll. Da GPT4o für Windows wohl noch kommt, würde ich gerne damit rumspielen und schauen in wie weit ich das vielleicht offline und persönlich haben kann, auf meine PC Anwendungen zugreifen lassen kann. Als Beispiel würde ich gerne wärend eines Online Games Fragen ob neue Mails angekommen sind mir die ggf. vorlesen lasse oder ob die KI mein Musikprogramm öffnen kann um Musik zu machen, sie sollte mich sogar erinnern dass ich das machen wollte. Außerdem würde mich interessieren auch die Sprach KI einfach und schnell zu trainieren, mit vorgefertigten Antworten auf Sprachsyntaxe. Einstellungen für den Grad des Humors und auch das lernen von lustigen Antworten die ich selber vorgebe und ggf Variablen. Die Lernmöglichkeiten via RAG sind dahingehend für den Privatanwender ziemlich gut und könnten ggf. auch für die Sprach KI funktionieren.
Ja, Mac Desktop App läuft bei mir. GPT4o am iPhone mit Voice seit etwa einer Woche (habe ein Plus-Abo). War überrascht, dass ich das Feature so schnell zur Verfügung hatte. Ist schon recht beeindruckend.
Dachte schon was macht JP Krämer jetzt in der IT Welt ❤😂❤
Gerade getestet - das GPT4o-Modell ist auch im Standrad-Account hinterlegt und arbeitet recht flott.
Einen monat später und in der kostenlosen version ist gpt 4o immernoch nicht drin
Den Witz finde ich super... da fällt mir auch noch einer ein: Wie nennt man ein mittelmäßiges Solarium? ... 'Solalarium' 🤭
Ich habe es im App Store runter geladen und 44€ gezahlt dafür. Aber irgendwas stimmt da nicht, die Stimme ist wie Siri und hört sich nicht real an. Also eine Sprachsteuerung , woran kann das liegen
Interessant. Ich habe bisher nur GPT3.5 - anscheinend! Frage ich nach der Version 4o bekomme ich als Antwort, dass es diese nicht gibt. Frage ich beharrlich weiter wird eine Bingsuche gestartet und so die Version 4o gefunden, die Informationen hierzu analysiert und mir dann ausgegeben. Nachdem ich ein bisschen weiter gechattet habe kommt irgendwann der Hinweis, dass mein 4o Fragekontingent aufgebraucht sei und ich Plus kaufen müsse. Ich kann jedoch gar nicht auf die Version 3.5 zurück wechseln bzw. diese als Modell auswählen. Alles sehr verwirrend.
du kannst nicht mehr GPT-4o auswählen, nachdem ein Bild oder eine Suche im chat war. Dafür musst du einen einfachen chat haben, um zu wechseln. Bist du am Handy oder im Browser am PC?
Schönes Video in spannenden Zeiten. Meine Hoffnung ist, dass solche Modelle dabei helfen, Barrieren abzubauen, ob bei Behinderungen, bei sprachlichen Hürden oder bei Lernschwächen. Was wäre es genial, wenn beispielsweise RUclips-Videos in mehreren Sprachen verfügbar wären.
Das bringt nur was, wenn die Übersetzungen verlässlich sind. Da wartet ein weiteres großes Minenfeld auf die KIs…
@@tarwod1098 Da stimmt. Unkritisch darf man dem ganzen Themen auf keinen Fall begegnen.
Hi,
gutes Video! Hat Spaß gemacht zu sehen und war sehr informativ. Ein gutes Video wäre noch, wie man ein Mikrofon zur Prompt-Eingabe am PC richtig einrichtet und nutzt. Danke und viel Spaß noch!
Ich finde es gut wie Lukas durch das Video führt. Aber der Spruch Guck mal hier ist ein Keno Spruch. Wie wäre es wenn Lukas einen eigenen Spruch bekommt? Das würde ich Feiern.
gpt 4o ist schlechter als gpt 4(abgesehen von der Geschwindigkeit). Ich nutze GPT4o u.a. als Programmierhelfer und das größte Problem ist, das GPT4o immer einen zu starken Focus auf das vorhergesagte legt und neue Anweisungen daher fast komplett ignoriert. Ich dreh mich da mit gpt4o immer im Kreis, das ist bei GBT4 nicht so, dort werden dann auch gute Alternativen vorgeschlagen und nicht immer wieder die gleiche Antwort geliefert. GPT4o ignoriert ganz klare Anweisungen teilweise komplett...
Interessant!
Geht mir genauso. Einfache Dinge kann man sich damit noch erklären lassen aber etwas komplexere Programmieraufgaben kriegt man damit kaum noch hin. Ist 4o einmal auf dem falschen Weg, kriegt man es nicht mehr eingefangen.
In der free Version am PC noch immer nicht verfügbar. 😒 Soviel zum Thema kostenlos für alle. 🙄
Ich vermisse Keno schon ein wenig, aber du machst das trotzdem sehr gut und nicht schlechter als Keno!
😂…niCer Ersatz mit entspannter KENo -Werbeunterstützung 🎉
😂Das ist sein Bruder hat so dieses leichte lisbeln wenn ich das so nennen darf, macht ihn auf jeden Fall sympathisch 👍
Ich hab gerade versucht, aus einem Foto ein Cartoon zu erstellen, aber das funktioniert nicht. Gpt4o schreibt, dass eine
Datei zum Download bereitgestellt wird, aber der Download funktioniert nicht. Wie hast Du das mit Kenos Bild genau gemacht?
12:30 "Also auch bei GPT-4o kann man sich nicht blind auf die KI verlassen." Findet ihr es sollte das generelle Ziel der Forschung sein, ein LLM zu entwickeln auf das man sich blind verlassen kann?
Hat was von Streetfighter II und Street Fighter II Turbo
Mit der Limitierung bringt mir Chat GPT 4o kostenfrei auch nichts.
Hi, habe auch das Plus Abo, aber ist es jetzt nicht überflüssig, da Chat Gpt 4 Omni schneller und dazu auch kostenlos ist ?
Also ich verfolge Chatbots so ziemlich von Anfang an in schöner Regelmäßigkeit und versuche auch oft sie in diverse Dinge mit einzubeziehen. Man merkt ganz schnell, das oft viel mehr versprochen wird, als die Chatbots dann auch halten können. Sie können bis heute teils die einfachsten Aufgaben nicht bewerkstelligen.Wie immer (von Sam Altman & Co ) viel heiße Luft um nichts ( Aktuelles Beispiel "Her" 🙄)
Meine persönliche Einschätzung: Bis Chatbots das können bzw die Fähigkeiten besitzen, mit denen sie so großspurig geworben werden, vergehen sicher nochmal 5-10 Jahre.
Als Alltagshelfer ganz nett, aber das wars dann auch !
Ich bin so gespannt, was die Zukunft in dem Bereich bringen wird. Wir waren auf jeden Fall live dabei.
Das aktuelle GPT-4o ist ohne Abo im Grunde nicht viel mehr als eine Demo.
Ja, es ist beeindruckend im Vergleich zu GPT 3.5, aber sehr sehr limitiert was die Anzahl der Nachrichten und Daten Uploads angeht.
Es fühlt sich für mich mehr so an, als würde Open AI einem mit ner leckeren Lasagne vor der Nase rum wedeln, nur um dann zu sagen dass die ja 20 € kostet.
Ich habe nur die "free"-Version und kann 4o schon seit ein paar Tagen nutzen. Der Unterschied zwischen 3.5 und 4o ist schon echt spürbar, schade nur, dass nach etwa 5 Nachrichten 4o für drei Stunden gesperrt wird. Eingeschränkte Nutzung halt, aber trotzdem brauchbar.
Ich wünsche Keno einen schönen Urlaub.
Ihr seid beide super! Es wäre cool, wenn ihr auch mal zusammen vor der Kamera wärt.
00:42 ist das severance, ich liebe es
in severance gibt es wohl nur den einen platz in der mitte nicht noch weitere drumherum. ich denke, es ist einfach nur ein völlig typischer büroarbeitsplatz in nem großraumbüro.obwohl, warte mal, die rechner... ja, du könntest recht haben.
ich feiere die serie auch total.
@@divine1953 ich hab gehört sie haben angekündigt dass die zweite Staffel bald kommt aber es gibt noch kein Datum
Ich habe heute ein Abo für ChatGPT. Ich frage mich ob ich das noch haben soll? Was hat man eigentlich noch davon?
also bei mir geht der neue Voice Modus bereits?
😂ich musste trotzdem gerade lachen ich mag den Witz 😂❤
Warum macht lil lano jetzt so Tutorials?
Wieso ist die reaktionszeit bei mir nicht so schnell ? :0 (plus Mitgliedschaft) und wird die Videofunktion auch auf Android kommen?👀
Das ist die alte Version (GPT-4, nicht 4o).
Ich muss als free User auf GPT 4-o noch warten und Mac App sagt auch, ich komme nicht rein (übrigens erlaubt die nur Google und E-Mail, ansonsten muss man über die Website gehen. Interessant eigentlich, dass Apple und Microsoft da nicht auftauchen, obwohl es die Mac App ist und Microsoft ja enger Partner von OpenAI ist). Ich warte noch. Habe aber ChatGPT auch kaum mehr genutzt, bin eher zu Bing und Perplexity gewechselt!
Habe mich schon gefragt ob dieses neue Audio feature nur bei mir nicht verfügbar ist, da so viele youtuber darüber quatschen.
Mein Fehler, hätte das c't 3003 video schauen sollen. Hier gibts die Details. Danke euch!
Ich verstehe nicht wo das kostenlos sein soll, abgesehen von der ersten Woche.
Bei mir in der App kostet 4o Geld weil ein Upgrade nötig ist
wo ist keno?
also ist mir ist das persönlich ziemlich egal wer den Test vorliest und auch das man es deutlich sieht, was mich aber so richtig stört ist das Ringlicht was sich im Glas der Brille spiegelt.
Ist weniger absurdes halluzinieren nicht schlechter als völlig absurdes für den Nutzer? Das eine lässt sich leicht erkennen aber wenn es weniger absurd wird, kann man sich nicht mehr so einfach sicher sein, ob es jetzt eine Halluzination ist oder nicht. Entsprechend kann man sich bei keiner Antwort mehr sicher sein, weil alles eine sein könnte und muss wieder alles auf die Waagschale legen 🙈
Tolles Video. Danke dafür ❤
GPT-4o wurde in einem Zugang die Woche freigeschaltet, aber in den anderen noch nicht. Vermutlich weil ich die wenig nutze. Ansonsten gerne Video zu den ganzn Möglichkeiten
Danke Lukas!
Starker Content!
Also bei mir geht Sprache - Voicemode sehr wohl. Keine Ahnung warum das bei Euch nicht geht.
Ist etwas kostenlos, bist Du das Produkt, das verkauft wird.
An welcher Stelle werden bei der Artikelerstellung nach den Sprachmodellen eigentlich die ganzen Rechtschreibfehler und halben Sätze eingestreut? Macht ihr das noch manuell?
Das ist bei uns noch bio.
Aktuell platzt der KI-Hype. Völlig überschätzt alles.
Wieso 3003?!?
"...die neueste Version DES SprachmodelS..." Dankt mir später.
Solange diese KI "trainiert" werden müssen, ist das alles irgendwie nichts halbes nichts ganzes. 4o hat den Trainingstand von Ende '22 Anfang '23.... Sprich veraltete informationen.
Das Wilhelm Busch Museum ist ja echt präzise eingezeichnet. Nordstadtkrankenhaus statt Museum 🤣🤣🤣🤣🤪🤪🤪🤪
Das Video ist eindeutig zu hell für mich 😞
Ja stimmt!
Bin offen für neue Gesichter!
Nur ist es extrem Irritierend, wenn Lukas so spricht wie Keno 🙃...
Braucht kein Mensch, vielleicht eine nette Spielerei für gelangweilte, ich werde es selbst kostenlos keines Blickes würdigen.
Absolut überbewertet.
Aber für die Werbung kommt Keno extra aus dem Urlaub zurück 🤪
Kostenlos? Die haben 3 pläne für bis zu 60 Euro/Monat!
Alles klar, Gott! Hier kommt noch ein wilder Ritt:
Martin Luther, ein Schokoladenkuchen und ein Raspberry Pi sitzen in der Bibliothek. Luther ist tief in seine Thesen vertieft, der Kuchen chillt auf einem Teller und der Raspberry Pi bastelt an einem neuen Projekt.
Plötzlich schaut der Schokoladenkuchen auf und fragt: "Hey Luther, wenn du so klug bist, warum hast du nicht 'ne Kirche aus Schokolade gemacht? Die wäre doch viel beliebter!"
Luther lacht und antwortet: "Weil Schokolade zwar die Seele wärmt, aber nicht die Sünden vergibt, mein süßer Freund!"
Der Raspberry Pi piepst: "Ja, und weil Schokolade bei 25 Grad schmilzt, und das ist einfach keine stabile Basis für eine Reformation!"
Daraufhin lacht der Schokoladenkuchen: "Na gut, dann bleib ich eben hier und mach die Leute glücklich. Jeder hat so seinen Zweck!"
Luther grinst: "Genau, jeder hat seine Mission, ob du Sünden vergibst oder nur verdammt lecker bist!"
Und was genau "gibt" dir das jetzt?
In welcher spaßlosen Lebensphase müsste ich mich befinden um an soetwas Freunde zu empfinden? Sinnlose Zeitverschwendung.
Nicht in die Irre führen lassen... GTP-4o ist NICHT kostenlos. Man hat nur einen kostenlosen Testzeitraum. Danach flutscht es automatisch wieder auf GPT-3.5
Die Anfragen sind begrenzt, aber man kriegt alle drei Stunden neue. Das ist schon mehr als "kostenloser Testzeitraum".
@@ct3003 Hmmm mir sagt er mein Zeitraum sei abgelaufen. Seit 3 Tagen kann ich nur noch 3.5 verwenden.
@@DJTechnostyler Ah, interessant, das habe ich noch nie gesehen. Könntest du eventuell einen Screenshot an 3003@ct.de schicken?
@@ct3003 Ich hab's jetzt noch mal ausprobiert und ich glaube ich muss mich entschuldigen 🙈 Jetzt geht's wieder. Ich hab's wohl irgendwie geschafft das dauerhaft abzuschalten. SORRY 😁.
Vanilla Keno
multimodal wäre gut !
ChatGPT ist zwar minimal langsamer als Gemini, aber solange Gemini mir sagt, ein Reifenwechsel kostet bei Regen mehr Geld, solange ist Gemini einfach nicht zu gebrauchen.
Das stimmt nicht so ganz, Chatgpt 4o den Voicemode kann man schon am Smartphone nutzen. Man muss es nur umstellen. Ich habe es schon vor einigen Tagen getestet.
Das ist dann aber der alte Voicemode, oder? Also der mit GPT-4.
Wo ist Keno??
wird in der ersten 30 sekuden vom video erklärt was ist mit dir?
Guck doch das Video richtig alter.
Leider musste ich feststellen, es ist genau gleich nervig. Es belehrt, gibt Falschantworten und ist einfach so oft unbrauchbar. Ich erkenne keine Verbesserung in der Logik zu 3.5.
Pi AI ist sehr viel weniger nerviger, wenn es auch nicht so gute Texte generiert. Es ist einfach nicht so anstrengend. und versteht auch Voice und Antwortet
Allerdings ignorieren alle AI Programme regelmäßig Anweisungen. Und sie müssen das letze Wort behalten. Sagt man sei still, schreiben sie immer was. Im Moment nur eine Spielerei und leider unzuverlässig und meistens unbrauchbar.
Wenn man fragt:
kannst du Bilder erstellen - nein
kannst du Lieder erstellen oder verbessern - ja
Und das ist nunmal falsch! Er faselt was von Liedtexten, das war aber nie meine Frage und das steht da auch nicht. Erst nachdem man drei Mal nachfragte, kommt die richtige Antwort - nein.
Nur anstrengend sowas.
4o bekommt man nur mit dem Plus Abo für 22€
Ja, aber leider nur über Kreditkarte :( Paypal wäre gut oder Lastschriftverfahren.....
@@Samudra208 Ich habe die Paypal Debitkarte. Wo ist das Problem?
gpt 4o kostet 21€ im monat
Habe meine erste Diplomarbeit und Dissertation zum Thema schon Ende der 90er erhalten: Was soll eigentlich der ganze Hype zum Thema??? Kein einziges Ereignis erhalten !!! Reine Zeit & Geld Verschwendung: egal welches GPT : Entweder das Limit ist sofort erreicht oder du bekommst genau das was du den digitalen "Sondermüll" gefragt hast als Antwort in Form einer weiteren sugg. Frage:1:1 zurück!!! Auf dem C64 mit 8 Bit hatte wir das Spiel schon in den 80ern ohne Abo nur Abzockerei !!! Wenn man ChatGPT mal selbst nach dem Sinn fragt der gleiche Blödsinn ! ALLES GEKÜNDIGT! Bin selbst Dozent...
was für ein hype wegen eines besseren Frageprogramm. Wenn die Applevariante so gut wie Siri ist na dannn gut nacht, die ist so dumm wie ein Toastbrot
Da war es wieder - das falsche "guck mal hier"... Keno fehlt... Joke wäre es jetzt wenn demnächst Keno wieder vor der Kamera steht, aber das Voiceover von dem guck mal hier vom Dude aus diesem Video hier reineditiert wird, und andersrum auch...
Huch wer ist das😆
😂😂
Was ist mit Keno???
0:30
Alter.... Man sollte die Hauptschule abschließen.
Schade dass man gerade den neuen Echtzeit-Sprachchat nicht gezeigt hat
Weil der noch nicht veröffentlicht ist.
@@ct3003 Zuhören ist schwer müsst ihr wissen xd
Geiles Video ❤ Ki ist die zukunft
Wer will Emotionen einer KI? Eine KI ist eine Maschine, sie leidet nicht und stirbt nicht und hat deshalb auch keine Gefühle. Wer will da belogen werden?
der pc wird sich nie durchsetzen sagte man vor 30 jahren siehe heute. Deine Denkweise ist also Quatsch. Eine KI mit Emotionen wäre echt top für Roboter.
Zum Beispiel für Anwendung in der Medizin oder Pflege.
@@Beluxo Emotionen haben einen Zweck, nämlich, sich über innere Zustände auszutauschen. Sie bilden die Grundlage für soziale Interaktion. Vertrauen beruht darauf, dass man nicht belogen wird - besonders über die Gefühlswelt des Gegenübers, und Opportunismus versucht, über seine wahren Gefühle hinwegzutäuschen, um einen Vorteil zu erlangen.
Roboter mit Gefühlen sind somit Ausdruck von Opportunismus, am Beispiel der Pflege, Ersatz für echte, menschliche Interaktion, um sich nicht selbst kümmern zu müssen. Wenn wir diesen Weg gehen, können wir uns auch gleich selbst abschaffen, denn dann gibt es nichts, was uns von Maschinen unterscheidet.
Das ganze Menschsein, die Tatsache, dass wir überhaupt sozial interagieren, dass wir fürsorglich sind, Mitgefühl haben und um unsere Toten trauern, beruht einzig auf der Tatsache, dass wir leidensfähig und sterblich sind, dass wir zuverlässig wissen, dass bestimmte Handlungen dieselben, inneren Reaktionen bei uns wie jedem anderen hervorrufen.
Ich glaube deshalb nicht, dass sich Roboter mit Emotionen durchsetzen werden, weil der Mensch auf Wahrheit angewiesen ist und emotionale Maschinen ablehnen wird. Ich hoffe es zumindest sehr.
Meine Antwort wird sichtbar bei "Sortieren->Neueste". K.A. warum das gefiltert wird. Kann da c't nicht mal eine Folge drüber machen?
Ganz einfache Antwort auf deine erste Frage: Ich.
Ich muss mich anstrengen nicht einzuschlafen. 😅🙈
Also Kenos Vertretung ist ausbaufähig. 🙊
Ja , leider etwas monotone Sprechweise 😢
Leider keine Info zum knowledge cutoff. Für mich ein kill-kriterium. Jetzt ist man zwar nur noch 9 Monate alt, aber nächsten Minat sind es schin 10,dann 11...
September 2021.
@@ct3003 Hängt vom Modell ab. September 2021 gilt nur für ChatGPT 3.5. Ich frage immer nach, wer König oder Königin in England ist.
@@ct3003 eigentlich hatte ich die Antwort schon mitgeliefert. 4o ist cutoff 10/2023. Sieht man auf auf der LLM Vergleichsseite.
Aber wie gesagt, das altert jeden Monat. Wohingegen Gemini und Copilot nicht altern
www Punkt, www Punkt, www Punkt, www Punkt, www Punkt, www Punkt
Gratis? Wenn ich 3 bilder in chatgpt hochlade steht danach ich soll mir premium holen 😢
Gute Zusammenfassung und ja, bitte noch ein Video zu den Multimodalen Funktionen 👍
Habe Zugriff drauf mit der kostenlose Variante allerdings sind das nur 3 oder 4 Nachrichten, Mal schauen ob und wann es sich ändert.
Aber ein Geschenken Gaul schaut man nicht ins Maul
Bei mir genau so.
same
Noch mal eine Frage von einem blinden Abonnenten: Wann testet ihr endlich mal unzensierte K.I.s und testet die Bedienbarkeit auch mal auf ihre Barrierefreiheit. Sprich, sind die Schaltflächen sinnvoll beschrieben oder heißt jede Taste nur wie üblich "Schalter" und man kann mal raten.
Bis lang ist das alles leider nur was für sehende Menschen die "nur langweiligen Kram" beschrieben haben wollen.
Ich habe gpt 4o schon freigeschaltet inklusive Spracheingabe. Habe vorgestern getestet wie gut chat gpt auf Kölsch die Gesetze der Thermodynamik erklaren kann. Ergebnis ist erstaunlich gut, ich habe keine fachlichen Fehler entdeckt und das Kolsch war auch ok
Toll, wie du deine Lebenszeit mit solchen Quatsch verplemperst.... 😂
@@masf Man muss ja die Grenzen der KI testen 🤣
@@clara.padbergDu konntest die KI auf fachliche Fehler kontrollieren, wenn es um Thermodynamik geht?😮😅 Respekt! Ich bin froh, dass ich die Thermodynamik Klausur in meinem Maschinenbau Studium bestanden habe.
Warum ich eine Spracheingabe beim Sprachassistenten langsamer machen sollte nur weil die Reaktion drauf lange dauert erschließt sich mir nicht.
Wenn ich Siri schnell Frage wie das Wetter ist nimmt es das Kommando ganz normal an. Eben nur die Ausgabe dauert länger.
Ich kann "Alle Kinder" zum Generieren empfehlen. Da kommen echte brüller raus :D... Alle Kinder Witze sind so was wie: Alle Kinder gehen über die Brücke aus Gunter der schaut runter. :|
Also ich weiß nicht ob ich damit alleine dastehe aber fällt euch nicht auch auf dass die Reaktionszeit der KI nur deswegen so schnell ist weil sie in den ersten Sekunden nur das vom User eingegebene wiederholt und ein paar dämliche Bemerkungen dazu macht während sie im Hintergrund erst lange nach der eigentlichen Antwort sucht. 🤔