Introduction 최근 대규모 트랜스포머 기반 모델이 Natural Language Processing(NLP) 분야에서 혁신적인 성능을 보이며 다양한 과제에서 뛰어난 성과를 보여주고 있다. 그러나 이러한 성과는 막대한 계산 비용과 높은 에너지 소비를 동반하며, 모델의 추론 속도 또한 실용적인 응용에 제약이 된다. 이에 반해, 생물학적 뉴런의 이...
오늘 한 일
오늘 한 일 MNLI 학습 obsidian 개인 사이트 연동 Introduction 작성 중
Introduction GPT와 같은 현대 artificial neural network는 natural language processing과 computer vision 분야에서 큰 성공을 거두었다. 이 방식은 Transformer를 사용하는 모델의 크기를 점진적으로 증가하여 달성했다. Transformer의 self attention mechan...
===================================================== Quantization is a process that reduces the precision of a model's weights and activations from floatingpoint numbers to integers. This tec...
==================================================================== Introduction In recent years, Large Language Models (LLMs) have gained significant attention in the field of natural language ...
오늘 한 일 MNLI 학습 논문 초안 정리
Raghuveer, who created Simply Jekyll theme Santosh Thottingal who introduced me to Digital Garden Puttalu for OrgMode classes! Team Obsidian for making obsidian a markdown based product Dar...
Welcome to digital garden using Obsidian and Jekyll garden theme. This file is located in _notes/Public. Check the demo , features to know more. Check Hidden Note to know how to create notes wh...
This page contains a quick reference to all markdown properties. 90% of this was part of the Simple Jekyll theme, which we forked to built this one. Great job, makers! By the way, how did you reac...
Tada! You found the hidden note! This note is just like Welcome to the garden, but not part of the feed since we hide it using notetype: unfeed. Please remember that the intention here is only to d...
© 2022 • Contents under CC-BY-NC • Credits