Samet Akın
Samet Akın
  • Видео 44
  • Просмотров 11 333
ChatGPTden daha iyi cevap almak için bunları bilmelisin: Prompt Engineering
🤖 Bu videoda, ChatGPT ve diğer yapay zeka modellerinden en etkili şekilde nasıl faydalanacağınızı öğretiyoruz! 🚀 Prompt engineering tekniklerini öğrenerek, yapay zeka ile iletişiminizi üst seviyeye taşıyın. 🎯
✨ Öne Çıkanlar:
Daha doğru ve özelleştirilmiş cevaplar için ipuçları 🧠
ChatGPT'nin potansiyelini ortaya çıkaran yöntemler 🚀
Abone olmayı unutmayın!
Просмотров: 614

Видео

Bu Problemi Kimse Çözemedi! | Collatz Varsayımı, Fraktallar ve Daha Fazlası
Просмотров 1642 месяца назад
✨ Matematik Ne Kadar Şaşırtıcı Olabilir?🔍 Bu videoda, matematiğin şaşırtıcı dünyasına adım atıyoruz! 📐🌀 Her adımda, matematiğin ne kadar şaşırtıcı olabileceğini beraber görelim! 👍 Abone olmayı unutmayın!
🍁🍂 Sonbahar Yürüyüşü / Malatya - Bostanbaşı
Просмотров 1243 месяца назад
🍁🍂 Sonbahar Yürüyüşü / Malatya-Bostanbaşı
Prompt Mühendisliği | LLM Hackleme Saldırları | AI Agent
Просмотров 864 месяца назад
🛡️ Prompt Mühendisliği | LLM Hackleme Saldırıları | AI Agent 🤖 Bu videoda, prompt mühendisliğine değinirken, dil modellerine yapılan hackleme saldırılarını ve AI agent'ların nasıl çalıştığını keşfediyoruz! 🚀🔐
RAG nedir? | Yapay Zekayı Kendi Verinizle Kullanın!
Просмотров 6404 месяца назад
🔍 RAG Nedir? | Yapay Zekayı Kendi Verinizle Kullanın! 🤖 Bu videoda RAG (Retrieval-Augmented Generation) yöntemini keşfediyoruz! 📚 RAG ile yapay zekayı nasıl kendi verilerinizle besleyip, ona daha akıllı ve özelleştirilmiş yanıtlar ürettirebileceğinizi öğrenin. 💡 Abone olmayı unutmayın!
Kernek-Kanalboyu Sabah Yürüyüşü / Malatya
Просмотров 4394 месяца назад
Bir yaz sabahında Kernek ve Kanalboyunda sabah yürüyüşü.. 16 Ağustos 2024 #malatya #kernek #kanalboyu #sabah
LORA - QLORA Finetuning ve Quantization Nedir? (PEFT)
Просмотров 1745 месяцев назад
🔍 PEFT Nedir? 🧠 Bu videoda, PEFT (Parameter-Efficient Fine-Tuning) yöntemlerini inceliyoruz. 🚀 Abone olmayı unutmayın!
Ders Anlatamayan Hoca Olmasın!!!
Просмотров 755 месяцев назад
📚 Ders Anlatamayan Hoca Olmasın! YETER ARTIK !!! Öğrencilerin kabusu: Ders anlatamayan hoca! 😤 Bu videoda, eğitim sistemimizde sıkça karşılaştığımız bu sorunu ele alıyoruz. Not: Videoda @bulutosman 'dan alıntı yapılmıştır
ChatGpt ve Dil Modelleri (LLMs) Nasıl Çalışır?
Просмотров 8585 месяцев назад
💡 ChatGPT ve Dil Modelleri (LLM) Nasıl Çalışır? 💬 Bu videoda, dil modellerinin tarihi gelişiminden 🚀, pretraining (ön eğitim) ve finetuning (ince ayar) süreçlerinden 🔧, ayrıca RLHF (İnsan Geri Bildiriminden Öğrenme ile Güçlendirme) kavramından bahsediyoruz. 🌐 Daha etkili öğrenme için deep learning (derin öğrenme) serimi izlemeyi unutmayın! 🎥
Malatya Barguzu Bahçe Turu
Просмотров 845 месяцев назад
🌳🪵Bu videoda sizlere Malatya Barguzu'daki bahçemizi gezdiriyorum. İyi seyirler!
Neden Tıp Yerine Bilgisayar Mühendisliği Tercih Ettim? (Podcast)
Просмотров 3636 месяцев назад
3 yıl önce neden tıp değil de bilgisayar mühendisliği tercihi yaptığımı anlatıyorum. Abone olmayı unutmayın ! #2024yks #2025yks #tercihler #kampüs #üniversite #bilgisayarmühendisliği #mühendislik #gameplay
Yapay Zeka ile Strateji Oyunu Yaptım!
Просмотров 3866 месяцев назад
Merhaba, bu videoda yapay zeka yardımıyla yaptığım strateji savaş tabanlı oyunumu anlatıyorum. Abone olmayı unutmayın! #pygame #games #programming #gameplay #python #oyun #yapayzeka #ai #openai #chatgpt #strategygames #artificialintelligence #vscode #pythonprogramming
Yapay Zeka ve Futbol (Podcast)
Просмотров 3306 месяцев назад
Yapay Zeka ve Futbol (Podcast)
Malatya'da Haziran Yağmuru
Просмотров 2177 месяцев назад
Malatya'da Haziran Yağmuru
Java ve Python'da Nesne Tabanlı Programlama(OOP) Konseptleri Karşılaştırması
Просмотров 647 месяцев назад
Java ve Python'da Nesne Tabanlı Programlama(OOP) Konseptleri Karşılaştırması
Malatya Millet Bahçesi 2024
Просмотров 7968 месяцев назад
Malatya Millet Bahçesi 2024
Array Veri Yapısıyla Sözlük Uygulaması
Просмотров 539 месяцев назад
Array Veri Yapısıyla Sözlük Uygulaması
Malatya Kanalboyu Akşam Turu
Просмотров 1909 месяцев назад
Malatya Kanalboyu Akşam Turu
Stack Püf Noktalarıyla Anlatım
Просмотров 699 месяцев назад
Stack Püf Noktalarıyla Anlatım
Linked List Türleri Püf Noktalar
Просмотров 229 месяцев назад
Linked List Türleri Püf Noktalar
Linked List Püf Noktalarıyla Detaylı Anlatım
Просмотров 2810 месяцев назад
Linked List Püf Noktalarıyla Detaylı Anlatım
Algoritma Analizi Püf Noktalar
Просмотров 3710 месяцев назад
Algoritma Analizi Püf Noktalar
Bellek Tahsisi ve Pointer Kullanımı Püf Noktalar
Просмотров 8910 месяцев назад
Bellek Tahsisi ve Pointer Kullanımı Püf Noktalar
LSTM ve Transformer ile Zaman Serisi Analizi Detaylı Anlatım
Просмотров 13511 месяцев назад
LSTM ve Transformer ile Zaman Serisi Analizi Detaylı Anlatım
Transformer Mimarisi Detaylı ve Basitleştirilmiş Anlatım #yapayzeka
Просмотров 29511 месяцев назад
Transformer Mimarisi Detaylı ve Basitleştirilmiş Anlatım #yapayzeka
Word2Vec, Attention Detaylı ve Basitleştirilmiş Anlatım
Просмотров 6111 месяцев назад
Word2Vec, Attention Detaylı ve Basitleştirilmiş Anlatım
Deep Learning ile Sınıflandırma Detaylı ve Basitleştirilmiş Anlatım
Просмотров 9211 месяцев назад
Deep Learning ile Sınıflandırma Detaylı ve Basitleştirilmiş Anlatım
Deep Learning Temelleri Detaylı ve Basitleştirilmiş Anlatım
Просмотров 261Год назад
Deep Learning Temelleri Detaylı ve Basitleştirilmiş Anlatım
Malatya Millet Bahçesi 2023
Просмотров 108Год назад
Malatya Millet Bahçesi 2023
Malatya Sivas Caddesi 2016
Просмотров 126Год назад
Malatya Sivas Caddesi 2016

Комментарии

  • @sametakin44
    @sametakin44 15 дней назад

    12:35 burda grafikte gösterdiğim tabanı 10 olan logaritma ve tabanı e olan logaritma. Loss hesaplanırken kullandığımız -log diye yazan kısımda tabanı e olan logaritmayı (yani ln) kullanarak hesabı yapmış, bunu biraz önce fark ettim. Taban e ise neden log yerine direkt ln yazmıyorlar bilemedim. Chatgpt böyle diyor ama ne kadar doğru bilemiyorum: Makine öğrenimi ve istatistikte, bu tür formüllerde kullanılan logaritmaların tabanı genellikle doğal logaritma olur. Ancak, başka bir taban (örneğin taban 2 veya 10) da kullanılabilir, fakat genelde bu durum belirtilir. Sebebi: 1. Doğal Logaritma (ln): Doğal logaritma, matematiksel ve hesaplamalı işlemler açısından daha yaygındır. Özellikle, optimizasyon algoritmalarında türev hesaplamalarıyla iyi çalışır. Çoğu makine öğrenimi kütüphanesi (ör. TensorFlow, PyTorch) doğal logaritmayı varsayılan olarak kullanır. 2. Taban 2 veya 10: Taban 2 genellikle bilgi teorisiyle ilgili durumlarda tercih edilir (örneğin bit cinsinden ölçümler için). Taban 10, genelde insanların daha aşina olduğu bir ölçüm birimidir ancak makine öğreniminde çok nadir kullanılır. Genel Kural: Eğer formülde taban belirtilmemişse, varsayılan olarak doğal logaritma (ln) kullanılır. Tabanı değiştirmek istiyorsanız, formüle bunu açıkça belirtmeniz gerekir.

  • @Joe_Sadriabi
    @Joe_Sadriabi 28 дней назад

    ingilizce, en iyi programa dili sanirim.

  • @kdayahya
    @kdayahya 28 дней назад

    chatgptyi sürekli kullanan herkesin hiç şüphesiz işine yarayacaktır. Bu alanla ilgili videolarını izlemek için de motive oldum. En yakın zamanda izleyeceğim. Güzel videolar çekiyorsun teşekkürler

    • @sametakin44
      @sametakin44 28 дней назад

      Neden yapay zeka ciddiyetinde yazdın yorumu :D

    • @kdayahya
      @kdayahya 28 дней назад

      ne hissettiysem onu yazdım aslında

    • @sametakin44
      @sametakin44 28 дней назад

      ​@@kdayahyapeki😊 teşekkürler

  • @gurerguncan
    @gurerguncan 29 дней назад

    Güzel bir video olmuş. Elinize sağlık

  • @elifbeyza4000
    @elifbeyza4000 Месяц назад

    Bilgilndirici bir video olmuş. Emeğine sağlık.

    • @sametakin44
      @sametakin44 Месяц назад

      @@elifbeyza4000 teşekkür ederim

  • @sametakin44
    @sametakin44 Месяц назад

    14:20 finetuning verisetleri insanlara da hazırlatılabilir başka dil modellerine de ürettirilebilir. Hatta başka yaklaşımlar da olabilir.

  • @sametakin44
    @sametakin44 Месяц назад

    17:01 burada veride gereksiz tekrarlar varsa stochastic gradient descent faydalı olabilir demeliydim 17:12 burada ise mini batch için söylediklerim hatalı olabilir. Yapay zekaya sordum mini batchlerin seçilmesinde farklı yöntemler olduğunu söylüyor. Her epochta karıştırma, sınıf dağılımını koruyarak örnekleme yapma vs. yöntemler söylüyor. Yani gradient descent(batch gradient descent) tüm verileri aynı anda alıyor, stochastic gradient descent verisetinden rastgele 1 örnek alıyor, mini batch ise her seferinde belli bi sayıda örnek alıyor ki genelde kullanılan budur. Ayrıca videoda bahsettiğim momentum gradient descent gibi bir optimizer. Momentumun da bir optimizer olduğunu ve başka optimizerlar da olduğu videoda tam anlaşılır olmayabilir, buraya yazmış olayım. Ayrıca momentum, gradient descentin modifiye edilmiş hali gibi düşünebilir, ama yine de global minimumu bulması garanti diyemeyiz. Farklı optimezerlar farklı verisetlerinde başarılı olabilir çünkü loss curve(hata eğrisi) herbirinde farklı. Deneyerek hangisi iyi çalışıyor bakılabilir. Adagrad, Adam vs. çok sayıda optimizer var.

  • @rahmikaracal2607
    @rahmikaracal2607 Месяц назад

    Kontrol kartı ne?

    • @sametakin44
      @sametakin44 Месяц назад

      @@rahmikaracal2607 Arduino uno

  • @smtakn_44
    @smtakn_44 Месяц назад

    💥Bomba bir anlatımmm, yıkılıyorrr. Kimmiş bu 96 aboneli eleman :) Şaka bi yana, baya açıklayıcı anlatmışım, geldim kendimden ders dinledim 🤓

  • @ksag5224
    @ksag5224 Месяц назад

    Merhaba, sizinle iletişime geçebileceğim bir yer var mı?

    • @sametakin44
      @sametakin44 Месяц назад

      @@ksag5224 Merhaba 🙋, burdan yazabilirsiniz

  • @kdayahya
    @kdayahya 2 месяца назад

    Yeni video ne zaman gelir

    • @sametakin44
      @sametakin44 2 месяца назад

      @@kdayahya bakalım :) takipte kalın

  • @sametakin44
    @sametakin44 2 месяца назад

    8:40 burası videoda uyardığım gibi yanlış olmuş arkadaşlar :) Özür dilerim, şimdi bugün öğrendiğim şekliyle açıklayayım ama siz yine dikkatli olun yine yanlış yapma ihtimalim var. Attention aslında şunu sağlıyor kelimelerin word embeddingleri var ya onlar herhangi bir contexe göre olan genel mana taşıyorlar aslında. Biz attention ile şunu sağlıyoruz: kelimelerin verilen bağlama göre word embeddinglerini güncelliyoruz. Yani artık genel bir bağlamdan o spesifik bir bağlama çekmiş oluyoruz word embeddingi, ki diğer kelimelerle ilişkisini de hesaba katmasını sağlıyoruz yeni word embeddingde. Bunu da direkt kendi word embedinginden yapmıyoruz da ayrı query key value lar üretip onlar üzerinden yapıyoruz. Böylece modele daha fazla esneklik tanımış oluyoruz. Bunun adı self-attention, bunu multihead self attentiona çevirmek için o query key value 3lülerinden 1'er tane değil de head sayısı kadar üretiyoruz herbiri aynı mimaride ama farklı parametrelerde oluyor paralel olarak işlemleri yapıyorlar. Sonra herbir head'den çıkan word embeddingleri birleştiriyoruz böyle yaparak çok daha fazla bağlamsal ilişki çıkarımı elde etmeye çalışmış oluyoruz. Yani videodaki anlatımım yanlış, öyle bir bölme yapmıyoruz. Bu arada şunu da söyleyeyim: N diye belirttiğimiz encoder decoder katman sayıları, headlerin paralelliği gibi olmuyor. Ordaki encoderlar ve decoderlar birinden çıkan output diğerininin inputu oluyor zincir gibi yani paralel değil ama mimariler aynı parametreleri farklı. Multiple attention layers, more informative word embeddings..

  • @sametakin44
    @sametakin44 2 месяца назад

    35:35 burada ve sonrasında birtakım yanlışlıklar olmuş, en azından bir kısmını açıklamaya çalışayım ama isterseniz ordaki biligleri direkt pas geçin, yanlış öğrenmeyin. Şurdan geleni buraya girmiyorum derken training yapmıyorum diyerek söylemişim. Önceki anlattığım encoder decoder model ile bu kısımda anlattığım decoder only model arasında karışıklık olmuş. Yine yanlış yapmamaya çalışarak açıklamaya çalışayım ama açıklamada da yanlış yapabilceğimi göz önünde bulundurun. Encoder Decoder Model Train için kullandığımız verisetinde bir girdi cümlesi ve ona karşılık gelen çıktı cümlesi bulunuyor. Encoder decoder modelin training aşamasında decoder'a, zaten verisetimizde bulunan çıktı cümlesindeki tokenları giriyoruz. Test aşamasında ise artık elimizde ağırlıkları eğitim sırasında güncellenmiş bir model var ve bakalım çalışıyor mu diye modeli deniyoruz. Yani modele sadece girdi cümlesini vereceğim ve cevabı modelden almak istiyorum. (Trainde modeli eğitirken girdi cümlesine ek olarak çıktı cümlesini(cevabı) da veriyorum çünkü modeli eğitiyorum). Test aşamasında modele sadece girdiyi veriyorum ama decoder'a da bir giriş vermem lazım. İşte bu girişi önceki üretilen çıktı tokenıyla sağlıyorum. Bu yüzden de bu modelde test aşamasında decoder paralel çalışamıyor çünkü bir önceki çıktı token'ı yeni çıktı token'ı üretmek için kullandığımdan onun üretilmesini bekliyorum. Şurdan geleni buraya girme mevsusu (önceki çıktıyı decoder'a girdi olarak kullanmak) encoder decoder modelin test aşamasında oluyor yani. Bu arada masked self attention hem train hem test aşamasında decoder içinde kullanılıyor, model train aşamasında da kendinden sornaki tokenlara bakmadan-kopya çekmeden öğrenmesini sağlıyoruz (verisetinde bu girdinin çıktısı bu şeklinde cümleler bulunduğu için trainingde kendinden sornaki tokenları görerek öğrenmesin) Decoder Only Model Uzun süreli bir videoyla durmaksızın böyle teknik bir konuyu anlatmak gerçekten kolay değil. Videolarımda bazı noktalarda eksik veya yanlış anlatımlarımlarım olabliyor bunlar için özür dilerim, en açıklayıcı şekilde anlatmaya çalışıyorum beni mazur görün. Decoder Only Model için şöyle bi açıklama yapmaya çalışayım yine hata yapıyorsam bunun için de özür diliyorum :) EOS token'ı üretilene kadarki tokenlar test aşamasında yanlış olsa da önemli değil çünkü "what is apple" şeklinde bir inputu dil modeline yazdınız diyelim "what" için bir çıktı "is" için doğru ya da yanlış olarak bir çıktı veriyor ama appledan sonra EOS(end of the sentece token - cümle sonu token'ı) üretilip devap ederse EOS üretildikten sonra üretilen tokenlar cevap olarak alınıyor. Train sürecinde olsaydı o yanlış üretilen tokenlarla hata hesaplanıp ona göre model ağırlıkları güncellenirdi ama testte ağırlık güncelleme yok ve yanlış çıktı üretsen de bir güncelleme olmuyor, testte EOS'tan sonraki cevap ile ilgileniyoruz zaten biz. Masked self attention ile herbir yeni token üretilirken önceki tokenların yeni tokena etkisi hesaplanıyor, bu durumda neden girdiğimiz input cümlesinin en başından attention hesaplanarak direkt cevap üretilmeye başlanmıyor da videodaki gibi EOSa kadar ürettirip çıktıyı almaya başlıyoruz şu an ben de emin olamadım. Hatta gerçekten süreç bu şekilde mi işliyor ondan da emin olamadım, o zaman izleğim eğitim videosunda bu şekilde anlatılıyordu bence ama yanlış olabilir. ChatGpt açıklamama böyle şeyler söyledi ama ChatGpt'nin de yanlış bilgi verebilceğini unutmayın: Encoder-Decoder Model Bölümü Train ve Test Süreçleri: Train aşamasında, modelin decoder kısmına çıktı cümlesini token token veriyoruz. Bu sürece teacher forcing denir. Amaç, modelin doğru hedeflere göre ağırlıklarını öğrenmesini sağlamak. Test aşamasında, decoder'a verdiğimiz girişler artık verisetinden alınan doğru tokenlar değil, modelin kendi ürettiği önceki tokenlardır. Bu, otomatik regressive generation olarak bilinir ve tokenların sırayla üretilmesi gerektiği için test sırasında paralel işlem yapılamaz. Bu doğru anlatılmış. Masked Self-Attention: Masked self-attention ile ilgili açıklaman doğru. Decoder, train aşamasında gelecekteki token'ları göremesin diye mask uygulanır. Bu, modeli geleceği tahmin etmeye zorlar ve doğru bir öğrenme sağlar. Hem train hem de test sırasında masked self-attention kullanılır. Decoder-Only Model Bölümü EOS Token ve Yanlış Üretilen Tokenlar: Decoder-only modelde, test sırasında üretilen her token, EOS gelene kadar bir sonraki token için giriş olarak kullanılır. Test sırasında hata düzeltme veya ağırlık güncellemesi yapılmaz, çünkü modelin test performansını anlamak için sabit ağırlıklarla çalışırız. Bu da doğru ifade edilmiş. EOS Token'ı ve Attention: Sorunun temel noktası şu: "Neden input cümlesinin en başından direkt cevap üretilmiyor da EOS’a kadar token token üretiliyor?" Bunun sebebi, dil modellerinin genellikle autoregressive (kendi kendine üreterek ilerleyen) şekilde çalışmasıdır. Model, verilen bir başlangıç girdisine dayanarak sırayla token üretir. EOS gelene kadar, model her token'ı sırasıyla tahmin eder. Bu süreç sırasında input cümlesine ek olarak, üretilen tüm önceki token'ların etkisini masked self-attention ile hesaba katar. Direkt cevaba geçilmemesinin nedeni, modelin yanıtını adım adım üretip önceki tokenların bağlamını dikkate almasıdır. Bu, modelin daha iyi tutarlı cümleler oluşturmasını sağlar. Sizin öneriniz şu: "Neden 'what is apple EOS' girdisi zaten sabitse, direkt olarak EOS sonrası token üretimine geçmiyoruz?" Bu mantıklı bir düşünce ve zaten olan biten tam da bu. Ancak bu süreçte dikkat edilmesi gereken bazı noktalar var: Decoder-Only Model Çalışma Mantığı: Model, "what is apple EOS" kısmını girdi bağlamı olarak alır ve bu bağlamı kullanarak EOS sonrası tokenları üretir. Her bir yeni token üretilirken, "what is apple EOS" bağlamı ve üretilmiş olan tokenlar (örneğin "it's a fruit") dikkate alınır. Yeni üretilen her bir token, autoregressive şekilde birer birer eklenir ve süreç tamamlanana kadar devam eder. Sonuç: Evet, girdi cümlesi yeniden üretilmez, çünkü o zaten sabit bir bağlamdır. Model, "what is apple EOS" girdisini kullanarak doğrudan EOS sonrası tokenları autoregressive şekilde üretmeye başlar. Bu nedenle, videodaki açıklamalarınızda girdi cümlesinin yeniden üretilmesi gerektiği gibi bir yanlış anlaşılma varsa bunu düzeltebilirsiniz. Daha basit bir ifadeyle: Girdi cümlesi: "what is apple EOS" → Modelin bağlamını oluşturur. Yeni üretim: EOS sonrası tokenlar sırayla autoregressive şekilde üretilir. Bu mekanizma, zaten dil modellerinin tasarımının temel bir parçasıdır ve sizin önerdiğiniz mantıkla uyumludur. Yani "what is apple EOS" kısmı direkt bağlam olarak alınır ve yeni tokenlar buna dayanarak üretilir.

  • @fratozcan4689
    @fratozcan4689 2 месяца назад

    eline sağlık dostum, süper bir anlatım

  • @cagrigurelo
    @cagrigurelo 2 месяца назад

    daha fazlasını da görmek isterim hocam, başarılar.

    • @sametakin44
      @sametakin44 2 месяца назад

      😊 Teşekkürler 🙋

  • @CC-qt2ki
    @CC-qt2ki 3 месяца назад

    Cozulcek bisey yok.Bi sayiyi hem azaltip hek eksiltirsen sirayla,sonunda 1 e ulasir zaten.

    • @sametakin44
      @sametakin44 3 месяца назад

      @@CC-qt2ki 3x+1 yerine 5x+1 denersek de çift gelinceye azaltıp tek gelince artırmış oluyoruz ama videoda gösterdim sayı girdim 1e ulaşmadı. Ama 3x+1 için hep ulaşıyor

  • @sametakin44
    @sametakin44 3 месяца назад

    3:17 - 4:07 Bu kısımda bi karışıklık olmuş gibi görünüyor. Bu aralıkta anlatılanları dikkate almayınız. Teşekkürler 🦉

  • @emmmine-z3o
    @emmmine-z3o 3 месяца назад

    kullandığınız notları paylaştınız mı

    • @sametakin44
      @sametakin44 3 месяца назад

      Yok paylaşmadım çeşitli kaynaklardan ekran fotoğraflarıyla ve chatgpt yazılarıyla oluşturulmuş bir doküman zaten

  • @ecemkorkmaz1940
    @ecemkorkmaz1940 3 месяца назад

    öncelikle elinize sağlık ama arkaya müzik koymasanız keşke daha iyi olabilir dikkat dağıtıyor

    • @sametakin44
      @sametakin44 3 месяца назад

      @@ecemkorkmaz1940 uyardığınız için teşekkürler 🙂

  • @L1bertass
    @L1bertass 4 месяца назад

    Sesin osman buluta benziyor

    • @sametakin44
      @sametakin44 4 месяца назад

      @@L1bertass videodaki kişi o zaten :) , ben ondan alıntı yaptım

  • @adifetgonullu6081
    @adifetgonullu6081 4 месяца назад

    Güzel memleketim

  • @kdayahya
    @kdayahya 5 месяцев назад

    Suyu görüyorsun

    • @kdayahya
      @kdayahya 5 месяцев назад

      self explanatory

    • @sametakin44
      @sametakin44 5 месяцев назад

      @@kdayahya evet aşağı doğru akıyor :)

  • @metobabba
    @metobabba 5 месяцев назад

    Türkiyede böyle içerikler görmek güzel hocam. Başarılar.

    • @sametakin44
      @sametakin44 5 месяцев назад

      Teşekkürler 🌹😊

  • @kdayahya
    @kdayahya 5 месяцев назад

    Şu an canım şeftali çekiyor

    • @sametakin44
      @sametakin44 5 месяцев назад

      Amerikada şeftali yok mu

  • @jesusbutisa
    @jesusbutisa 5 месяцев назад

    Eline sağlık dostum güzel video olmuş

    • @sametakin44
      @sametakin44 5 месяцев назад

      @@jesusbutisa teşekkür ederimm, umarım faydalı olmuştur 🪻🌹

    • @jesusbutisa
      @jesusbutisa 5 месяцев назад

      @@sametakin44 Evet tabikide faydalı oldu. İçereklerin çok güzel umarım güzel yerlere ulaşabilirsin yapay zeka alanında :)))

    • @sametakin44
      @sametakin44 5 месяцев назад

      @@jesusbutisa faydalı olmasına sevindim😊 güzel dileklerin için teşekkürler

  • @AIwithEren2023
    @AIwithEren2023 5 месяцев назад

    Güzel bir video olmuş, ellerine sağlık Samet.

    • @sametakin44
      @sametakin44 5 месяцев назад

      Teşekkürler hocam, Türkçe içeriğe katkıya devam 😊

  • @ErdemAkın-r8t
    @ErdemAkın-r8t 5 месяцев назад

    Bahçeniz ne güzelmiş😂

    • @sametakin44
      @sametakin44 5 месяцев назад

      @@ErdemAkın-r8t Hepimizin bahçesi Erdemcim 🙂

  • @xwezzy8137
    @xwezzy8137 6 месяцев назад

    kimsenin umursamadığı bir konu, sadece kendini övmüşsün garip.

    • @sametakin44
      @sametakin44 6 месяцев назад

      Bence çok kişinin umursadığı bi konu, bunun yanında çok da övülecek bi tarafım yok Sen olsan ne yazardın, ben çiçek gönderiyorum sana. Al bakalım 🌹🌷 🪻

  • @sontrollbukucu3980
    @sontrollbukucu3980 6 месяцев назад

    Dostum senin adına sevindim.Ben de mühendislik istiyordum ama kazanamadım.Hala da çok istiyordum çünkü hayalim di ama ne yazık ki aile m nedeniyle mezuna kalamıyorum.Kimya bölümünü yazıp gitmeyi düşünüyorum.Kimya bölümü gibi temel bilimler pek tercih edilmiyor çünkü işsizlik vaadediyor.Üniversitedeyken sınava hazırlanmaya çalışacağım başarır mıyım bilmiyorum...

    • @sametakin44
      @sametakin44 6 месяцев назад

      Kardeşim 🌹 İnşAllah hakkında hayırlısı olur

  • @ayvazosmanoglu6772
    @ayvazosmanoglu6772 6 месяцев назад

    Merhaba birşey sormak istiyorum. Bu kullandığın yapay zekanın ismi ne? Yapay zeka ücetli mi? Ve kodlamsaını tamamen yapay zeka mı yaptı yoksa kodlamada ufakta olsa dokunuşların oldu mu

    • @sametakin44
      @sametakin44 6 месяцев назад

      ​@@ayvazosmanoglu6772 merhaba, chatgptnin ücretsiz versiyonunu oyunu yaparken yardımcı olarak kullandım. Kodlamayı tamamen yapay zeka yapmadı benim de dokunuşlarım var ama oluşturduğu kod taslaklarıyla pygamede çok fazla bi tecrübem olmamasına rağmen ilerlememi sağladı. Tabi ciddi hata ayıklama işlemleriyle uzun uzun uğraşmaktan beni kurtaramadı ama işimi gördü

  • @x3beche981
    @x3beche981 6 месяцев назад

    Eline sağlık 👾

    • @sametakin44
      @sametakin44 6 месяцев назад

      @@x3beche981 🙋👍

  • @AIwithEren2023
    @AIwithEren2023 6 месяцев назад

    Harika bir oyun olmuş. Tebrik ederim 🥳

    • @sametakin44
      @sametakin44 6 месяцев назад

      @@AIwithEren2023 teşekkür ederimm 🤗

  • @1907Velrion
    @1907Velrion 7 месяцев назад

    video çok hoşuma gitti basarılar diliyorum umarım daha iyi yerlere gelirsin

    • @sametakin44
      @sametakin44 7 месяцев назад

      @@1907Velrion güzel temennilerin için çok teşekkür ederim 🤗

  • @sametakin44
    @sametakin44 7 месяцев назад

    Aldık 🇹🇷🇹🇷🇹🇷

  • @abdulsafak1385
    @abdulsafak1385 8 месяцев назад

    Video çok değerli bilgiler içeriyor.Kaç yıldır yapay zeka üzerine çalışıyorsun?

    • @sametakin44
      @sametakin44 8 месяцев назад

      Merhaba, öncelikle yorumunuz için teşekkür ederim🙂 2023 ocak şubat aylarından beri kendimi yapay zeka alanında geliştirmeye çalışıyorum diyebilirim. Birçok anlatımdaki yüzeysellik benim öğrenme sürecimi zorlaştırıyordu ben de küçük detayların bile anlamaya etki ettiğini kendimden bildiğimden böyle anlatımlar yapmaya çalıştım. Umarım faydalı olmuştur..

  • @abdulsafak1385
    @abdulsafak1385 8 месяцев назад

    Harika video umarım daha çok kişinin önüne çıkar . Vaktin var ise Kaggle üzerinden videolar gelirse çok daha harika olur mesela polars gibi farklı kütüphaneler kullanarak.

  • @kdayahya
    @kdayahya 10 месяцев назад

    Sonu tatlı olmuş

  • @kdayahya
    @kdayahya 2 года назад

    Aa yeni gördüm sesli halini baya iyi

  • @danceoftheeternity7951
    @danceoftheeternity7951 2 года назад

    İyi düşünülmüş 👍

    • @sametakin44
      @sametakin44 2 года назад

      9.sınıf coğrafya.. zamanında çalışırdık

  • @berkacan7338
    @berkacan7338 2 года назад

    Uygulamadan reklam mı aldınız beyfendi

    • @sametakin44
      @sametakin44 2 года назад

      Hayır sayın beyefendi , reklam almadım :)

  • @kdayahya
    @kdayahya 3 года назад

    Yukarı eğimli olduğu için pislikler başta birikiyor. Arkadan gelen su öndekini ittiği için su yokuş yukarı ilerliyor. Anladın mı Samet?

    • @sametakin44
      @sametakin44 3 года назад

      Şu konuştuğumuz mesele- Emin misin suyun yokuş yukarı aktığına

    • @kdayahya
      @kdayahya 3 года назад

      Tabi tabi

  • @kdayahya
    @kdayahya 3 года назад

    Tatlı

  • @kdayahya
    @kdayahya 4 года назад

    Neredesiniz bayım?

    • @sametakin44
      @sametakin44 4 года назад

      Ben şu an Malatya`dayım bu görüntüyü Ordu`da kaydetmiştim.Karadeniz bu deniz.😉