[DLD 2022] Bert 보다 빠르다? FNet으로 Text Classification 해보기 - 김노은
2022.10.27 - 2022.10.27
0
0
공유
0
공유

Transformers 는 등장 이후 자연어 처리 분야의 주류로 자리 잡았습니다. 그러나 self-attention 이 O(n^2)의 시간과 공간 복잡도를 갖는다는 주의점이 존재했고 시퀀스 길이에 따른 bottleneck 해소를 위한 Linformer, Performer 등의 논의가 이어졌습니다. 본 세미나에서 소개할 FNet 은 self-attention 레이어를 Fourier transforms 으로 교체하여 이를 해소한 이론입니다. Keras 신규 예제를 통하여 BERT 보다 GPU, TPU 에서 각각 7배, 2배 빠른 성능을 보이는 FNet 을 통한 Text Classification 실습을 진행하고 기존 이론과의 차이점을 소개할 예정입니다.

💁 세미나 안내 

  • 날짜 : 2022년 10월 27일 목요일
  • 시간 : AM 10:00 ~ AM 10:50
  • 장소 : 온라인
  • 접속링크 :  실시간 라이브

🧑‍🏫 세미나 내용

🧑‍🚀 연사 소개

  • 김노은 (요기요 - R&D Center)
  • 요기요 검색&개인화 팀 소속
  • ML/MLOps 엔지니어
  • 3. 인프라 동아리 운영진 (Cloud Club, https://cloudclub.oopy.io/)

✍ 세미나 신청하기 

회원 가입 후 상단 [참여하기] 버튼을 클릭하시면 됩니다

✨ 주최/주관

  • 주최 : 대덕특구 SPACE-S
  • 주관 : 케라스 코리아 페이스북 그룹 운영진
  • 운영 : 따뜻한 메이커 연구소, 인공지능팩토리

🗓 DLD 2022 전체 프로그램 소개

본 세미나는 DLD 2022 프로그램 중 하나입니다. 아래 링크에서 전체 프로그램인 케라스 실용 예제 및 개발 가이드를 확인해주세요.

[DLD 2022] 케라스 실용 예제 및 개발 가이드 컨퍼런스

 

🖼 썸네일 프롬프트 소개

본 태스크의 썸네일은 케라스 마스코트인 유니콘과 우주인 조합으로 스테이블 디퓨전 모델을 통해 만들어졌습니다. 이때 사용된 프롬프트는 아래와 같습니다.

a illustration of an astronaut riding a unicorn horse which has white horns, red hair and red tail by michael whelan and tomer hanuka, karol bak, full of details, by makoto shinkai and thomas kinkade, matte painting, trending on artstation and unreal engine