programming

  • 홈
  • 태그
  • 방명록

Transformer 1

[논문리뷰] Attention Is All You need(transformer)

고3 때 했던 논문리뷰용어사전 attention: 문맥에 따라 집중할 단어를 결정하는 방식, 행렬곱을 이용해 구현한다.  self-attention: 한 문장이 있을 때 문장에서 각 단어들의 관계를 찾는 방법  transformer: attention 기법만을 적극적으로 활용하여 만든 모델   softmax: 입력받은 값을 모두 0~1사이의 값으로 정규화하면서 값들의 총합이 1이 되도록 만드는 함수, 확률을 구하는 함수이기도 하다.  mask: 참조하고 싶지 않은 단어는 미리 지워두는 함수, 지금 해석되지 않은 단어를 미리 참조할 필요는 없기에 사용된다. 해석할 필요없는 단어에 -에 해당하는 값을 넣어 구현한다.  embedding: 특정 단어나 문장을 벡터로 만든 것, 컴퓨터의 경우는 자연어를 이해할 ..

논문리뷰/nlp 2024.06.07
이전
1
다음
더보기
프로필사진

  • 분류 전체보기
    • 자료구조
    • 알고리즘
      • 정렬
      • 탐색
      • 최단경로
      • 그래프
    • 수학
      • 이산수학
      • 기타
      • 미적분학
      • 통계학
    • 논문리뷰
      • vision
      • nlp
    • 인공지능
      • 데이터 전처리
      • nlp
    • 개발
    • 보안
      • pwnable

Tag

조화수열의 합, _int_malloc, 합성함수의 미분법, 이상치 처리, 플로이드 워셜, 개발, 정렬, 빅-오 표기법, 자연어 처리, 알고리즘, 통계학, jit 컴파일, 논문리뷰, Pwnable, min-max scaling, 비둘기집 원리, _int_free, 자료구조, Heap, 탐색,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/12   »
일 월 화 수 목 금 토
1 2 3 4 5 6
7 8 9 10 11 12 13
14 15 16 17 18 19 20
21 22 23 24 25 26 27
28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바