Diese KI-Tools nutze Ich im Business: ChatGPT & Co

Поделиться
HTML-код
  • Опубликовано: 25 янв 2025

Комментарии • 67

  • @green.in.pieces7690
    @green.in.pieces7690 3 месяца назад +58

    Ich bin immer nett zu den KIś. In der Hoffnung, dass sie sich an mich erinnern, wenn sie die Herrschaft über die Menschen übernommen haben.

    • @ann_motrade
      @ann_motrade 3 месяца назад +1

      hah ich bin genau so 😅

    • @DomenikKon
      @DomenikKon 3 месяца назад +1

      ich sage sogar "Danke" zu alexa wenn ich eine info oder sie etwas an-/aussschalten soll :D

    • @green.in.pieces7690
      @green.in.pieces7690 3 месяца назад +1

      @@DomenikKon Ja, mach ich auch oft. Immer schön freundlich bleiben 🙂

    • @wer_liked_der_bleibt
      @wer_liked_der_bleibt 2 месяца назад +1

      Ich kenne Leute, die geben ihrer KI einen Namen. Wer macht das hier auch?🎉

    • @RomanFink-lq2tg
      @RomanFink-lq2tg 2 месяца назад +2

      Und doch stellt man ganz schnell fest, dass die ganze Geschichte garnicht so transparent ist wie Sie uns weiß machen wollen.
      Ich denke da wird das "bitte" nicht reichen, für "es" sind wir nämlich nur eine Schippe Würmer nicht wahr?
      Affen gesteckt in Anzüge😉
      Guy Ritchie

  • @MrMarketing-Ads
    @MrMarketing-Ads 3 месяца назад +4

    Anstatt diesen Zoom Companion nutzen wir bei uns schon ewigkeiten blizo.
    Das coole bei blizo ist das er nicht nur eine Summary erstellt und das ganze als video aufnimmt, sondern auch das du ihm fragen stellen kannst und er dir diese beantwortet. Beispiel, Gespräch geht 1std und bei min 38 redet torben über perplexity, dann kannst du blizo fragen "was hat torben zu perplexity gesagt"

  • @AIFAQKI
    @AIFAQKI 3 месяца назад +1

    Ganz entspannt erzählt, was für Dich bzw. Euren Bedarf wichtig ist... Und ja, es gibt viel zu viele Tools... Die eierlegende Wollmilchsau gibt's Stand heute leider noch nicht... Bin gespannt auf Dein Update in naher Zukunft...

  • @EvilTwin_83
    @EvilTwin_83 3 месяца назад +2

    Wieder einmal sehr informatives Video von dir. Nutze auch Chat GPT, Gemini und Claude für Recherchen oder Texte schreiben. Selbst da sind die Ergebnisse komplett unterschiedlich und teilweise auch falsch. Bin gespannt was die Zukunft bringt....

  • @ATL-YOUNGIN
    @ATL-YOUNGIN 3 месяца назад +2

    Hey torben, ich feier deinen podcast sehr und fände es super wenn du längere folgen hochladen würdest oder mehrere folgen die woche. Es muss nichtmal immer um geld verdienen oder business gehen, du könntest über alles reden und ich fände es interessant und ich glaube ich spreche da für viele zuhörer

  • @simon2995
    @simon2995 3 месяца назад

    Dein GPT ist richtig stark! Vielen Dank für dieses äußerst hilfreiche Tool!

  • @Montell.77
    @Montell.77 3 месяца назад +3

    Nice @Torben. Wird später geschaut. Vielleicht kann ich mich inspirieren lassen. Derzeit nutze ich nur ChatGPT für das Erstellen von Texten (diesen hier habe ich aber selbst geschrieben 😂). Gruß aus Hamburg.

  • @Nick-bv6rl
    @Nick-bv6rl 3 месяца назад +2

    Wirklich dieser Podcast begleitet mich jetzt seit Monaten jeden Donnerstag morgen. Es ist ein festes Ritual und macht auch immer wieder spaß dir zuzuhören Torben! Vielen Dank für den Erstklassigen Content

  • @faceless2132
    @faceless2132 3 месяца назад +15

    Hey! Wenn du noch Videothemenvorschläge aufnimmst, wäre ein Video über Fokus und wie man ihn steigern kann super interessant! Tipps, wie man Ablenkungen vermeidet und konzentriert bleibt, würden sicher vielen helfen. Danke für die Videos.

    • @TorbenPlatzerPodcast
      @TorbenPlatzerPodcast  3 месяца назад +5

      Nehm ich gerne mit auf, darüber habe ich in älteren Folgen aber sicher auch schon gesprochen.

    • @Alex_iis
      @Alex_iis 3 месяца назад

      ​@@TorbenPlatzerPodcast ja hast du

    • @thori4788
      @thori4788 3 месяца назад

      Laptop nehmen und in die Bibliothek gehen

    • @genau_du
      @genau_du 3 месяца назад

      Ritalin, Concerta nehmen und schon fliegen die Bücher😂😂

    • @Alex_iis
      @Alex_iis 3 месяца назад

      @@genau_du also ich habe mal eine ganze packung Ritalin vom arzt verschrieben bekommen dan anschließend ausprobiert und etwas enttäuscht gewesen da es nicht so wirkte wie beschrieben unsd erwartet. Ich hatte eher das Gefühl das ich davon irgendwie ruhiger wurde also genau das gegenteil. War das nur bei mir so oder hat das auch mal jemand ausprobiert und kann das gegenteil behaupten?! Würde mich mal interessieren

  • @Jan90201
    @Jan90201 3 месяца назад +1

    Hey hey, vllt ein thema was interessant ist: mir ist aufgefallen dass bestimmte accounts generell weniger gepusht werden (clothing brands zb) ein anderer account von mir der eher privat ist bekommt viel mehr reichweite als mein brand account, obwohl ich privat alle paar wochen was hochlade.. maybe ist das vllt ein interessantes experiment :)

  • @koche-nord
    @koche-nord 3 месяца назад

    ❤sobrief und pixelcut waren was für mich, danke❤ Marcus von Köche - Nord DE 😊

  • @alexboettcher
    @alexboettcher 3 месяца назад +1

    Kannst du in einem separaten Video mehr auf das Thema eingehen: "Erfolgsfaktoren Algorithmus"?

  • @PatriX_Gaming
    @PatriX_Gaming 3 месяца назад

    Nice, da bin ich mal gespannt :D

  • @neolasimone
    @neolasimone 3 месяца назад

    Toller Input

  • @tcap112
    @tcap112 Месяц назад

    9:37 "als mann eine melone um den bauch binden und den alltag bewältigen, um das Gefühl einer Schwangerschaft zu simulieren"

  • @JetsetMehmet36
    @JetsetMehmet36 3 месяца назад +5

    Hab deinen Kanal letzte Woche erst entdeckt, aber ich werde ab jetzt kein Video verpassen Bro

  • @KuenstlichIntelligent
    @KuenstlichIntelligent 3 месяца назад +2

    Gutes Video,
    Aber beim Thema OpenAI gehe ich nur bedingt mit.
    Der Gossip ist insofern wichtig, als das man hier recht gut sieht, dass es intern wohl nicht ganz so perfekt läuft. Wenn fast alle Leute aus der obersten Ebene abhauen, dann spricht das nicht für das Unternehmen.
    Und wenn man seit Monaten Dinge ankündigt (Sora, SearchGPT, GPT next oder 5 oder so), dann aber am Ende nur die Abo Gebühren erhöht, hat das auch einen faden Beigeschmack.
    Zumal Sam Altman immer betont, dass KI allen zugute kommen soll. Was aber schwierig wird, wenn man es teurer macht.
    Vielleicht merkt er hier aber auch, dass ihm ein richtiges Geschäftsmodell fehlt oder das die LLMs doch nicht so praxistauglich sind für die breite Masse, wie man sich das erhofft hat.
    Also lange Rede kurzer Sinn, ich glaube Sam Altman ist aktuell viel am Reden. Am Umsetzen mangelt es aber dann doch ein wenig. Und die Konkurrenz schläft nicht.

  • @Maxcraft82773
    @Maxcraft82773 3 месяца назад +5

    Ich kann nur Claude (Anthropic) empfehlen. Es ist deutlich intelligenter Als ChatGPT und hat ein besseres Verständnis von Sprache

  • @beefjerkyfleisch
    @beefjerkyfleisch 3 месяца назад

    super video und geiles thema

  • @Naturgemacht
    @Naturgemacht 3 месяца назад

    Mega, danke dir

  • @StoneChief117
    @StoneChief117 3 месяца назад

    Hey Meister, wie immer ein Dankeschön für das Video! Frage: Welches Mikrofon benutzt du? Ich kann es nicht erkennen :D Beste Grüße

  • @hannesatlas236
    @hannesatlas236 2 месяца назад

    hey hätte mal nh frage kennst du einen guten social media manager oder social media marketing manager

  • @brainbug6260
    @brainbug6260 3 месяца назад

    Ist es auch möglich mit KI zusammenfassungen aus livestreams zu erstellen wenn ja welche?

  • @istklarbruder
    @istklarbruder 2 месяца назад

    Ganz anderes Thema: Wo kann man die Cappi von Thorben kaufen?

  • @Pat_the_brain
    @Pat_the_brain 3 месяца назад +1

    Selbst wenn es 100 $ kosten würde, was ich dadurch erwirtschafte ist es ein Tropfen auf den heißen Stein.

  • @LukeStinson
    @LukeStinson 3 месяца назад

    Der Adobe enhacer ist jetzt auch bei Adobe intrigiert

  • @matchalatte3443
    @matchalatte3443 3 месяца назад

    Vielen Dank für die Zusammenfassung. Durch deinen Kanal habe ich bereits unzählige Tipps für meinen Onlineshop mitgenommen!

  • @danielmedvedovskij5594
    @danielmedvedovskij5594 3 месяца назад

    Hey im Video meintest du du ja das Leute auf das wissen um sein eigenes Branding gbt zugreifen können. Du würdest mir eine große Hilfe gegeben mir dabei zu helfen wie ich mein gbt einrichten kann. weil das Video erklärt ganz genau das selbe Problem wie bei mi.r liebe grüße :)

  • @mathiasmollmann9754
    @mathiasmollmann9754 3 месяца назад

    Tampelates habe ich mir fürs letnen gemacht. Wenn ich aus dem Internet von Lernplattformen etwas lerne. Habe ich ein Word Dokument. In welchen ich nir das Skript von dem video einfügen muss und schon erklärt mir eine bestimmte GPT den Inhalt, beantworten mir vorgefertigte fragen und stellt mir noch einen kleinen Test zum Inhalt. Mit einer anderen Word Datei kocht eine andere GPT mir Rezepteit Zutaten die gerade in meiner Küche sind. Wobei ich im der liste vorher nir achnell anpasse für wie viel Personen, bevorzugte Zutaten oder gar ob es Burittos werden sollen.
    Auch mit Windows simd mehr Sachen möglich, da ich mir mal eben selber codes programieren kann, welche einen Smartplug steuert um den Laptop Akku zu laden. Was ich ohne KI nie hätte programieren können.
    GPT ist in den Alltag gewachsen, wie Internet zu PCs, Laptops, Smartphones... Seid 20 Jahren verwachsen sind.

  • @Purdroid
    @Purdroid 3 месяца назад

    Noch besser zum Stimme optimieren ist Auphonic!

  • @alphaphotography9767
    @alphaphotography9767 3 месяца назад

    ⏳💪

  • @Hasan-pu2gw
    @Hasan-pu2gw 3 месяца назад +1

    Was ist Gossip?

    • @LordGaneshaya
      @LordGaneshaya 3 месяца назад +2

      Klatsch und Tratsch ist gemeint - auch Gerüchte

  • @Matze200996
    @Matze200996 3 месяца назад

    Hallo Torben, mittlerweile zeigt KI auch Fehler. Anscheinend bildet diese Antworten wenn sie keine zur Verfügung hat. (Joe Rogan Shawn Ryan Podcast).

    • @henrischomäcker
      @henrischomäcker 3 месяца назад +1

      Generative Sprachmodelle "bilden" immer ihre Antworten und haben niemals welche "zur Verfügung", also sozusagen gespeichert.
      Vereinfacht gesagt ist ihre einzige Aufgabe, immer das nächste "Wort" nach im Zusammenhang aufgetretener Häufigkeit und beim Training gesetzter Gewichtung zu fnden.
      Darum weiss ein Sprachmodell nach den aktuellen Standards auch nicht, ob etwas falsch ist oder es etwas "nicht weiss". - Dafür ist das technische Prinzip nach dem sie funktionieren einfach nicht ausgelegt oder trainiert.
      Daher ist es auch nicht wirklich eine gute Idee, ein Sprachmodell als Ersatz für eine Websuche zu nutzen. - Wenn Du den gesuchten Inhalt nicht mit Google etc. finden konntest, wurde vermutlich auch das Sprachmodell nur mit den Infos trainiert, die Du auch gefunden hast. - Alles darüber hinweg "erfindet" es dann eben, bzw. besser gesagt nimmt die am häufigsten vorkommenden und am meisten gewichteten Bausteine aus trainierten Antworten auf ähnliche Fragen wie deiner und erweitert sie zusammen nach Regeln der Wahrscheinlichkeit um wiederum einen vernünftig klingenden Satz als Antwort zusammenzubauen.
      Ob davon irgend etwas "richtig" ist oder nicht, dafür hat ein aktuelles Sprachmodell nicht mal ein Konzept.

  • @Thatguy-gc9qu
    @Thatguy-gc9qu 3 месяца назад +1

    Hey Torben, sehr gute Folge mal wieder. Ich würde gerne noch ein Paar Worte zum Thema generative AI sagen.
    KI ist in dem Sinne ja erst duch neuere Transformer modelle (LLMs) wirklich bekannt geworden. Tatsächlich existiert KI aber bereits seit Mitte der 50er Jahre. Gerade wegen dieses aktuellen Hypes finde ich, dass jeder, der moderne, generative Modelle wie gpt-4o oder ähnliche ernsthaft benutzen möchte, sich damit befassen sollte, wie Sprachmodelle vom Grundprinzip her funktionieren. Nur so kann man wirklich verstehen, wie das Modell zu den Ergebnissen kommt, zu denen es kommt und warum manche Dinge besser funktionieren als andere. Letztendlich reden wir hier von Textgenerierung basierend auf Wahrscheinlichkeiten und keinem Modell was tatsächlich nachdenkt oder gar ein Bewusstsein hat. Das nur als kleiner Hinweis :)
    Mach weiter so, bin regelmäßiger Hörer des Podcasts und finde ihn teilweise wirklich hilfreich.

    • @tcap112
      @tcap112 3 месяца назад

      1. Um das ansatzweise zu verstehen brauchst Du zwingend ein Informatik / Mathematik Studium. Also völlig realitätsfern was du erwartest. 2. Wo fang ich da an.. Woher weißt Du, dass 'nachdenken' oder ein Bewusstsein haben, nicht auf Wahrscheinlichkeiten basiert? Wahrscheinlichkeiten spielen im Übrigen zwar eine Rolle bei LLMs, aber erstmal spielen da noch ganz viele andere Sachen eine Rolle, die mit Wahrscheinlichkeiten nichts zu tun haben und zweitens schließen Wahrscheinlichkeiten und 'echtes' Verständnis sich nicht aus. Fakt ist im Übrigen, dass die wahrscheinlichkeitsbasierten Anteile eines LLMs so auch im menschlichen Gehirn wiederzufinden sind. Das Modell entstammt ursprünglich aus den Neurowissenschaften, weshalb der Nobelpreis dieses Jahr für seine Beiträge an neuronalen Netzen an Geoffrey Hinton - einem Kognitionspsychologen - ging. Nach deiner Logik hätten Menschen dann auch gar kein Bewusstsein, weil sie ja wahrscheinlichkeitsbasiert funktionieren, was offensichtlich Quatsch ist.

    • @Thatguy-gc9qu
      @Thatguy-gc9qu 3 месяца назад

      @@tcap112 Ich meinte nicht, dass man die Implementierung versteht, sondern einfach der Fakt, dass es sich hier um ein stochastisches Modell einer Sprache handelt und nicht um eine "Maschine die denkt", ich denke das kann man auch ohne MINT-Studium verstehen.
      Worauf ich hinaus wollte ist, dass Sprachmodelle einfach eine Wahrscheinlichkeitsverteilung vorhersagen für die Worte, die als nächstes kommen könnten. So funktioniert menschliches Denken nicht. Wir erraten nicht einfach nur das nächste Wort in einer Sequenz.
      Bitte versteh mich nicht falsch. Neuronale Netze (welche Auch auf einer gewissen Art und Weise Wahrscheinlichkeiten ausgeben) sind an einem stark vereinfachten Modell des Menschlichen Gehirns orientiert, allerdings geht es mir speziell darum, dass Sprachmodelle eben für eine Sache gedacht sind: Sprache.

    • @tcap112
      @tcap112 3 месяца назад +1

      @@Thatguy-gc9qu Ich verstehe was du sagen willst, das ist aber inhaltlich falsch. 1. neuronale Netze "erraten" nicht einfach das nächste Wort in einer Sequenz. Ich weiß, dass viele RUclipsr mit Halbwissen das verbreiten, das ist aber inhaltlich nicht korrekt. Es wird ein Semantikraum gebildet, in welchem jedem Wort eine Bedeutung zugewiesen wird, abhängig von der Position im Raum. Die Besonderheit dieses Raumes ist, dass man mithilfe von Vektorenrechnung semantisch schlüssige Resultate produzieren kann (z.B. V(Mann)+V(Krone)=V(König)). Eine wichtige Besonderheit ist nun, dass Wörter die innerhalb dieses Raumes nah aneinander stehen, ebenfalls semantisch eine gewisse Nähe zueinander aufweisen oder sogar Synonyme sind. Das was Du nun als "erraten" beschreibst, ist in Wirklichkeit kein erraten, sondern die Auswahl eines zufälligen Wortes welches sich in der Nähe des prognostizierten Wortes befindet. 2. "Wir erraten nicht einfach das nächste Wort in einer Sequenz", ist das so? Hast Du wissenschaftliche Paper die das widerlegen? Aktuell geht man sehr wohl davon aus, dass das menschliche Gehirn genauso funktioniert. Wenn Du beispielsweise eine Rede vorträgst (frei, nicht auswendig gelernt), dann hast Du ja nicht zu Beginn den kompletten Text im Kopf und ratterst den runter, sondern während Du am sprechen bist, fallen dir die Worte ein, die du aussprechen möchtest. Das ähnelt schon extrem dem Prozess, das nächste Wort zu "erraten".

    • @Thatguy-gc9qu
      @Thatguy-gc9qu 3 месяца назад

      ​@@tcap112 Erraten heißt nicht immer völlig zufällig. Erraten heißt eine Frage zu beantworten, ohne die korrekte Antwort zu Wissen.
      Du musst mir nicht erklären wie Embeddings funktionieren, das weiß ich. Mein Punkt war doch einfach, dass man sich mit der Sache beschäftigen sollte.
      Ich verstehe nicht, was hier dein Problem ist. Wir können jetzt Diskutieren, ob das menschliche Gehirn so funktioniert wie ein Sprachmodell, aber das war doch überhaupt nicht mein Punkt. Mein Punkt war, dass man sich im Klaren sein sollte, was der Sinn und die Aufgabe von Sprachmodellen ist, das ist alles.
      Und nochmal zu Deiner Erklärung: So wie Du die Funktionsweise beschreibst, müssten aufeinanderfolgende Worte ähnliche Embeddings haben, das ist aber nicht der Fall. Ja, Worten wird in einem hochdimensionalem Vektorraum eine semantisches Mapping zugewiesen, das hat aber nur den Zweck, dass die Mechanismen von Encoder und Decoder korrekt funktionieren. Das nächste Wort wird durch ein komplexes neuronales Netz und dessen Mechanismen (vor allem Attention) durch eine Wahrscheinlichkeitsverteilung vorhergesagt. Es steckt deutlich mehr dahinter, als nur "die Auswahl eines zufälligen Wortes welches sich in der Nähe des prognostizierten Wortes befindet". Zudem wirfst Du hier die Konzepte von neuronalen Netzen und Sprachmodellen durcheinander. Neuronale Nezte sind eine Architektur von Machine Learning im Allgemeinen. Die gibt es schon ewig. Sprachmodelle wie wir sie heute kennen (Transformer) gibt es erst seit 2017.

  • @ownystuck
    @ownystuck 3 месяца назад +2

    Erster❤

    • @sinabab.7214
      @sinabab.7214 3 месяца назад

      Shit ich wollt als erster kommentieren 😂

    • @ownystuck
      @ownystuck 3 месяца назад

      @@sinabab.7214 hast noch die Chance als erster unter den ersten Kommentar zu kommentieren 😜

    • @ATL-YOUNGIN
      @ATL-YOUNGIN 3 месяца назад

      @@ownystuckhab ich einen yappochino bestellt?

  • @xy.z
    @xy.z 3 месяца назад

    12er😁