이미지 세그멘테이션 Image Segmentation 한번에 끝내기

Поделиться
HTML-код
  • Опубликовано: 13 янв 2025

Комментарии • 82

  • @AliceDavidEdu
    @AliceDavidEdu 2 года назад +2

    정말 너무도 상세하고, 개념정리 확실하게 되는 이미지 세그멘테이션 영상이네요. 감사합니다~~~~~~~ 팬 되었네요^^

    • @suanlab
      @suanlab  2 года назад +1

      앗 감사해요 팬님 ^^

  • @vitaminsodium
    @vitaminsodium Год назад +1

    segmentation 모델 찾다가 제가 가지고 있는 데이터 마스크 이미지 만들어서 학습했는데 도움이 많이 됐습니다.
    감사합니다. 구독하고 갑니다.

    • @suanlab
      @suanlab  Год назад

      네 감사합니다 ^^

  • @ksy960809
    @ksy960809 3 года назад +1

    딱 Unet 공부해야할때 이런 좋은 자료가...
    감사합니다!

    • @suanlab
      @suanlab  3 года назад

      넵, 감사합니다. 유투브 알고리즘이 잘 동작하나보네요.

  • @nueal5046
    @nueal5046 2 года назад +1

    detectron1을 설치하고, 'test_spatial_narrow_as_op.py'코드로 잘 설치되어 있는지 테스트하는 과정에서 에러가 발생합니다. 에러 메시지는 다음과 같습니다.
    ImportError: cannot import name 'metanet_pb2' from 'caffe2.proto' (/usr/local/lib/python3.7/dist-packages/caffe2/proto/__init__.py)
    혹시 무엇이 문제 일까요?
    동영상 2:14:11 부분 입니다.

    • @suanlab
      @suanlab  2 года назад

      아! Colab이 업그레이드 되면서 버전이 안맞아서 문제가 있네요.

    • @nueal5046
      @nueal5046 2 года назад

      @@suanlab 답변 감사합니다.^^

    • @까까오당
      @까까오당 2 года назад

      @@suanlab 혹시 현재 버전에서는 어떻게 설치해야하나요?

  • @whatisitsarmvkdnfvd
    @whatisitsarmvkdnfvd 2 года назад

    선생님 안녕하세요, 좋은 강의 감사드립니다. 따라서 하다가 잘 안되는 부분이 있어 댓글을 남깁니다.
    1:46:07
    resnet50 = keras.applications.resnet50.ResNet50(weights='imagenet', include_top=False, input_tensor=model_input) 입력 시,
    ValueError: Cannot assign value to variable ' conv1_conv/kernel:0': Shape mismatch.The variable shape (7, 7, 512, 64), and the assigned value shape (64, 3, 7, 7) are incompatible. 에러가 생기는데 해결을 어떻게 할지 2시간을 찾아봐도 모르겠습니다. 혹시 왜 그런지 알 수 있을까요?

  • @송승민-m1c
    @송승민-m1c Год назад

    선생님 정말 잘 봤습니다. 덕분에 이해가 잘 되었습니다

  • @dbssus123
    @dbssus123 Год назад

    55:15 이 부분에서 모든 코드가 동일한데 저는 loss 가 nan으로 계속 나오네요 ㅜㅜ 왜 그런지 모르겠습니다... 도와주세요

  • @힘내자-y6i
    @힘내자-y6i 2 года назад +3

    교수님 옥스포드 데이터셋 압축 해제 하는 도중에 자꾸 오류가 생겨서 해결방안을 여쭙고자 댓글 남깁니다.
    강의 진행 상황에 맞춰
    !tar -xf images.tar.gz 를 실행시켰더니
    tar: This does not look like a tar archive
    gzip: stdin: not in gzip format
    tar: Child returned status 1
    tar: Error is not recoverable: exiting now
    와 같은 에러가 나옵니다. 어떻게 해야할까요..?

    • @kyukyulee6353
      @kyukyulee6353 2 года назад +7

      curl -O 대신에 curl -OL을 사용해보세요

    • @rfunit24
      @rfunit24 2 года назад

      @@kyukyulee6353 와 이렇게 하니까 되네요. 감사합니다.

    • @정회준-u7i
      @정회준-u7i 2 года назад

      @@kyukyulee6353 제 한 줄기의 희망이십니다 감사합니다

  • @barrykim6407
    @barrykim6407 3 года назад +1

    최고입니다👍👍👍

    • @suanlab
      @suanlab  3 года назад

      앗! 감사합니다. ^^

  • @parkrw
    @parkrw 2 года назад +1

    좋은 강의 감사합니다.

    • @suanlab
      @suanlab  2 года назад

      앗! 감사합니다 ^^

  • @naaahello8948
    @naaahello8948 9 месяцев назад

    U-net 구현 과정에서 다운샘플링 단계에서의 출력은 다음 다운샘플링 과정에서만 사용하고, 업샘플링에서는 첫 번째 업샘플링 때만 다운샘플링의 최종 출력을 활용하며 또한 업샘플링 내내 이전 업샘플링 출력만 활용하는 것 같은데,,, 제가 코드 구조를 잘못 이해한건가요? 두 개의 for 문 사이에 어떠한 데이터 교류(skip connection 관계)도 딱히 없어 보여서요...

  • @seijurou77
    @seijurou77 2 года назад +2

    좋은 강의 감사합니다! 혹시 blind deconvolution 같은 문제를 영상의 segmentation 딥러닝방법으로 접근해서 성과가 날 수 있을지 궁금합니댜

  • @평범한사회초년생이야
    @평범한사회초년생이야 2 года назад +1

    57:34 감사합니다!

    • @suanlab
      @suanlab  2 года назад

      넹 감사합니다. ^^

  • @니르아트만
    @니르아트만 3 года назад +2

    아. 이것도 봐야 하는데. 아직 생활 코딩도 정주행 못했으니 ㅠㅠ
    세월이 너무 빨리 흘러가.

    • @suanlab
      @suanlab  3 года назад

      포기하지만 않으시면 언젠간 다 들으실 수 있을꺼예요.

  • @장민서-u2g
    @장민서-u2g 2 года назад +3

    어노테이션이 코코제이슨 타입으로 되어있어 Unet에 적용시키려면 어떠한 방법이 있을까요?

    • @suanlab
      @suanlab  2 года назад

      json 타입을 다른 포맷으로 변환시키는게 가능합니다.

  • @가전은역시엘지
    @가전은역시엘지 3 года назад +2

    좋은 강의 항상 감사드립니다 공부중에 궁금한것이 있어 댓글 남깁니다
    1. segmentation 모델중에 가장 좋은 모델은 어떤게 있나요? 강의에 나온 deeplab이나 detectron 모델은 상용화 된 모델인가요?
    2. 어떤 task를 하는 모델을 만들때 데이터가 충분하다는 조건은 어느정도인가요? 예를들어 마스크를 탐지하는 detect 모델이라 하면 데이터가 2천장이 있으면 충분하다고 생각할수 있을까요?
    미리 감사드립니다

    • @suanlab
      @suanlab  3 года назад

      1. Task 별로 자주 sota가 바뀌고 있습니다. 다음 링크를 참고해보세요.
      paperswithcode.com/task/semantic-segmentation
      paperswithcode.com/task/instance-segmentation
      2. 데이터는 많으면 좋지만, 마스크 탐지 정도는 최소 2,000장 정도면 어느정도 성능이 나올것 같아요.

    • @가전은역시엘지
      @가전은역시엘지 3 года назад +1

      답변 감사드립니다 좋은하루 보내세요!!

    • @suanlab
      @suanlab  3 года назад

      넵, 행복한 하루 되세요 ^^

  • @sefer-raziel
    @sefer-raziel 3 года назад +1

    최고!!!!!감사합니다

    • @suanlab
      @suanlab  3 года назад

      넵 감사합니다 ^^

  • @joon8767
    @joon8767 2 года назад +3

    안녕하세요 이수안 교수님. 좋은 강의 감사드립니다. Oxford-IIIT Pets 데이터셋 압축 해제 중 오류가 나와 댓글남깁니다.
    강의 처럼
    !tar -xf images.tar.gz
    !tar -xf annotations.tar.gz
    를 실행시켜보았더니
    gzip: stdin: not in gzip format
    tar: Child returned status 1
    tar: Error is not recoverable: exiting now
    tar: This does not look like a tar archive
    gzip: stdin: not in gzip format
    tar: Child returned status 1
    tar: Error is not recoverable: exiting now
    와 같은 에러가 나왔습니다.
    바쁘신와중에 글을 읽으신다면 조언 부탁드립니다.
    감사합니다.

    • @suanlab
      @suanlab  2 года назад

      이게... 다운로드 링크가 막힌거 같아요 ㅠㅠ

    • @joon8767
      @joon8767 2 года назад

      @@suanlab 아그런가요? 교수님! 다른 명령어로 해봤더니 해결(?)은 된 것 같습니다!

    • @joon8767
      @joon8767 2 года назад +8

      저 같이 오류가 나오신 분은
      !curl -L www.robots.ox.ac.uk/~vgg/data/pets/data/images.tar.gz -o image.tar.gz
      !curl -L www.robots.ox.ac.uk/~vgg/data/pets/data/annotations.tar.gz -o annotations.tar.gz
      !tar -zxvf images.tar.gz
      !tar -zxvf annotations.tar.gz
      이렇게 해보세요!

    • @달카롱-q9k
      @달카롱-q9k 2 года назад

      @@joon8767 감사합니다!

    • @양민혁-m1i
      @양민혁-m1i Год назад

      @@joon8767 감사합니다.

  • @은가누-z8n
    @은가누-z8n 8 месяцев назад

    부품의 윤곽을 마스크로 학습시켜 각도랑 사이즈가 정확하게 가공되었는지 딥러닝으로 하고 싶은데 어떤 방식이 나을까요

  • @LeaFKne
    @LeaFKne 3 года назад +1

    안녕하십니까?! 좋은 강의 항상 감사드립니다..!!
    강의를 듣고 다른 이미지 데이터셋에 적용하려던 와중 궁금한 것이 생겨서 질문을 드립니다.
    cityscape dataset 을 통해서 deeplabv3를 적용할때 학습과정에서 loss가 nan으로 되는데 어떤 이유에서 이런 현상이 발생하는 걸까요..?! ㅠㅠ

    • @suanlab
      @suanlab  3 года назад

      Loss값이 NaN이라니... 아무래도 어떻게 정의하신지 알아야 원인을 알것 같아요.

  • @visualkhh
    @visualkhh 3 года назад +1

    고맙습니다.

    • @suanlab
      @suanlab  3 года назад

      넵 감사합니다.

  • @ilmecha_ju7937
    @ilmecha_ju7937 3 года назад +1

    수안이형 사랑해요😀

    • @suanlab
      @suanlab  3 года назад

      네 사랑해용 ^^

  • @Aiden.K
    @Aiden.K 2 года назад +1

    안녕하세요 이미지 세크멘테니션보면 사람들이 텐서플로우 프레임으로 많이 해서 그런지 구글 코랩을 많이 쓰더라구요. 저는 보통 쥬피터 노트북을 많이 사용했는데, 혹시나 코랩을 사용하면 어떤 장점이 있을까요? 아니면 그냥 원래 사용하시는거여서 그렇게 하시는건지 궁금합니다

    • @suanlab
      @suanlab  2 года назад

      구글 코랩에서는 텐서플로우와 파이토치 둘다 가능합니다.
      주피터노트북을 쓰셔도 됩니다.
      다만 무료 GPU 환경이 필요하여 코랩을 기반으로 강의한겁니다. ^^

  • @gaehwancho372
    @gaehwancho372 3 года назад +2

    감사합니다.
    혹시 라이다 포인트 클라우드를 활용한 객체 탐지나 세그멘테이션도 강의해주실 계획 있으신가요?

    • @suanlab
      @suanlab  3 года назад

      아! 그쪽으로 연구하고 계세요?

    • @gaehwancho372
      @gaehwancho372 3 года назад +1

      @@suanlab 네 스승님

    • @suanlab
      @suanlab  3 года назад

      멋진 연구 하시네요. 추후에 강의 예제로 넣어볼께요. ㅋㅋ

    • @gaehwancho372
      @gaehwancho372 3 года назад

      @@suanlab 네 항상 감사하고 응원합니다!

  • @treejhk
    @treejhk 3 года назад +1

    KITTI DataSet에 deeplab V3를 적용하려고, 올려주신 방법으로 데이터를 로드하고 싶습니다.
    그래서 G드라이브에 올린 이미지 파일의 링크를 복사해서 활용하려고 했지만, 제대로 안되는 것 같습니다.
    안되는 이유가, 제 생각에는 파일에 대한 링크 생성 방법이 다른 것 같아서 영상처럼 안되는 것 같습니다.
    G드라이브에 저장한 파일을 올려주신 파일 링크처럼 로드하고 링크를 따고 싶은데 혹시 링크를 어떻게 생성하셨나요?

    • @suanlab
      @suanlab  3 года назад

      GDrive를 Colab과 연동하는걸 하고싶으신거죠?

    • @treejhk
      @treejhk 3 года назад +1

      네 연동하려고 합니다.
      그리고 올려주신 영상에서는 GDrive 링크를 사용하셨는데,
      그 GDrive 링크를 어떻게 만드는지 여쭙고 싶습니다.

    • @suanlab
      @suanlab  3 года назад

      overface.tistory.com/572
      이 링크 한번 보시겠어요?

    • @treejhk
      @treejhk 3 года назад

      네 감사합니다.

  • @용용죽겠지-n4k
    @용용죽겠지-n4k 3 года назад +2

    지렸다

    • @suanlab
      @suanlab  3 года назад

      감사합니다 ^^

  • @user-yangsan
    @user-yangsan Месяц назад

    1:10:09

  • @오야-q8d
    @오야-q8d 2 года назад +1

    17:30 1:03:18

  • @Tech-ii9ze
    @Tech-ii9ze Год назад +1

    2:28:19

  • @김채원-z8x3x
    @김채원-z8x3x Год назад

    1:13:50

  • @yoonkang3558
    @yoonkang3558 3 года назад +2

    혹시 파이토치 한번에 끝내기도 업로드 하실 계획 있으신가요?

    • @suanlab
      @suanlab  3 года назад

      파이토치는 여러영상이 이미 있답니다.
      ruclips.net/video/C1P7PaIeKvU/видео.html

  • @nguyenquanghuy_ryan
    @nguyenquanghuy_ryan Год назад

    this is very good video. can you teach in English bro?

  • @김세민-g8j
    @김세민-g8j Год назад

    2:07:18

  • @류재원-u9b
    @류재원-u9b 3 года назад +2

    코린이입니다..혹시 안면인식에도 적용가능한 기술일까요?

    • @suanlab
      @suanlab  3 года назад +1

      안면 인식은 나중에 올릴께요.
      이건 안면을 분류하는데 쓸수 있어요.
      눈 코 입 등 ㅋㅋㅋ

    • @류재원-u9b
      @류재원-u9b 3 года назад +1

      @@suanlab 넵 감사합니다! 안면인식으로 사람분류하는것도 보고싶어요!

    • @suanlab
      @suanlab  3 года назад +1

      넵 나중에 얼굴 인식도 올려볼께요.

  • @제니스-q4h
    @제니스-q4h 2 года назад

    광고가 너무 많네요..ㅜㅠ

  • @nick6267
    @nick6267 3 года назад +2

    지료따

    • @suanlab
      @suanlab  3 года назад

      감사합니다 ^^

  • @SphereofTime
    @SphereofTime 3 дня назад

    36:43 def __getitem__

  • @위대한여정박규성
    @위대한여정박규성 2 года назад +1

    매우 감사 합니다

    • @suanlab
      @suanlab  2 года назад

      넵 감사합니다. ^^

  • @naaahello8948
    @naaahello8948 9 месяцев назад

    2:08:16