Transformers documentation
열심히 번역 중입니다. 조금 이따 만나요!
시작하기
튜토리얼
Pipeline으로 추론하기AutoClass로 사전 학습된 인스턴스 로드하기데이터 전처리하기사전 학습된 모델 미세 조정하기스크립트로 학습하기🤗 Accelerate로 분산 학습 구성하기🤗 PEFT로 어댑터 로드 및 학습하기만든 모델 공유하기에이전트
태스크 가이드
자연어처리
(번역중) 오디오
(번역중) 컴퓨터 비전
멀티모달
(번역중) 개발자 가이드
🤗 Tokenizers 라이브러리에서 토크나이저 사용하기다국어 모델 추론하기(번역중) Customize text generation strategy모델별 API 사용하기사용자 정의 모델 공유하기Amazon SageMaker에서 학습 실행하기ONNX로 내보내기TFLite로 내보내기TorchScript로 내보내기(번역중) Benchmarks(번역중) Notebooks with examples커뮤니티 리소스사용자 정의 도구와 프롬프트문제 해결
(번역중) 성능 및 확장성
성능 및 확장성(번역중) Training on one GPU(번역중) Training on many GPUsCPU에서 훈련다중 CPU에서 훈련하기(번역중) Training on TPUsTensorFlow로 TPU에서 훈련하기(번역중) Training on Specialized HardwareCPU로 추론하기하나의 GPU를 활용한 추론다중 GPU에서 추론(번역중) Inference on Specialized Hardware훈련용 사용자 맞춤형 하드웨어(번역중) Instantiating a big model(번역중) DebuggingTrainer API를 사용한 하이퍼파라미터 탐색TensorFlow 모델을 위한 XLA 통합
(번역중) 기여하기
(번역중) How to contribute to transformers?🤗 Transformers에 새로운 모델을 추가하는 방법어떻게 🤗 Transformers 모델을 TensorFlow로 변환하나요?어떻게 🤗 Transformers에 파이프라인을 추가하나요?테스트Pull Request에 대한 검사
(번역중) 개념 가이드
이념과 목표(번역중) Glossary🤗 Transformers로 할 수 있는 작업🤗 Transformers로 작업을 해결하는 방법Transformer 모델군(번역중) Summary of the tokenizers어텐션 매커니즘패딩과 잘라내기BERTology고정 길이 모델의 펄플렉서티(Perplexity)추론 웹 서버를 위한 파이프라인모델 학습 해부하기
(번역중) API
(번역중) 메인 클래스
(번역중) Auto Classes(번역중) Callbacks(번역중) Configuration(번역중) Data Collator(번역중) Keras callbacks(번역중) Logging(번역중) Models(번역중) Text Generation(번역중) ONNX(번역중) Optimization(번역중) Model outputs(번역중) Pipelines(번역중) Processors(번역중) Quantization(번역중) Tokenizer(번역중) Trainer(번역중) DeepSpeed Integration(번역중) Feature Extractor(번역중) Image Processor
(번역중) 모델
(번역중) 텍스트 모델
(번역중) ALBERT(번역중) BART(번역중) BARThez(번역중) BARTpho(번역중) BERT(번역중) BertGeneration(번역중) BertJapanese(번역중) Bertweet(번역중) BigBird(번역중) BigBirdPegasus(번역중) BioGpt(번역중) Blenderbot(번역중) Blenderbot Small(번역중) BLOOM(번역중) BORT(번역중) ByT5(번역중) CamemBERT(번역중) CANINE(번역중) CodeGen(번역중) ConvBERT(번역중) CPM(번역중) CPMANT(번역중) CTRL(번역중) DeBERTa(번역중) DeBERTa-v2(번역중) DialoGPT(번역중) DistilBERT(번역중) DPR(번역중) ELECTRA(번역중) Encoder Decoder Models(번역중) ERNIE(번역중) ErnieM(번역중) ESM(번역중) FLAN-T5(번역중) FLAN-UL2(번역중) FlauBERT(번역중) FNet(번역중) FSMT(번역중) Funnel Transformer(번역중) GPT(번역중) GPT Neo(번역중) GPT NeoX(번역중) GPT NeoX Japanese(번역중) GPT-J(번역중) GPT2(번역중) GPTBigCode(번역중) GPTSAN Japanese(번역중) GPTSw3(번역중) HerBERT(번역중) I-BERT(번역중) Jukebox(번역중) LED(번역중) LLaMA(번역중) Longformer(번역중) LongT5(번역중) LUKE(번역중) M2M100(번역중) MarianMT(번역중) MarkupLM(번역중) MBart and MBart-50(번역중) MEGA(번역중) MegatronBERT(번역중) MegatronGPT2(번역중) mLUKE(번역중) MobileBERT(번역중) MPNet(번역중) MT5(번역중) MVP(번역중) NEZHA(번역중) NLLB(번역중) NLLB-MoE(번역중) Nyströmformer(번역중) Open-Llama(번역중) OPT(번역중) Pegasus(번역중) PEGASUS-X(번역중) PhoBERT(번역중) PLBart(번역중) ProphetNet(번역중) QDQBert(번역중) RAG(번역중) REALM(번역중) Reformer(번역중) RemBERT(번역중) RetriBERT(번역중) RoBERTa(번역중) RoBERTa-PreLayerNorm(번역중) RoCBert(번역중) RoFormer(번역중) Splinter(번역중) SqueezeBERT(번역중) SwitchTransformers(번역중) T5(번역중) T5v1.1(번역중) TAPEX(번역중) Transformer XL(번역중) UL2(번역중) X-MOD(번역중) XGLM(번역중) XLM(번역중) XLM-ProphetNet(번역중) XLM-RoBERTa(번역중) XLM-RoBERTa-XL(번역중) XLM-V(번역중) XLNet(번역중) YOSO
(번역중) 비전 모델
(번역중) BEiT(번역중) BiT(번역중) Conditional DETR(번역중) ConvNeXT(번역중) ConvNeXTV2(번역중) CvT(번역중) Deformable DETR(번역중) DeiT(번역중) DETA(번역중) DETR(번역중) DiNAT(번역중) DiT(번역중) DPT(번역중) EfficientFormer(번역중) EfficientNet(번역중) FocalNet(번역중) GLPN(번역중) ImageGPT(번역중) LeViT(번역중) Mask2Former(번역중) MaskFormer(번역중) MobileNetV1(번역중) MobileNetV2(번역중) MobileViT(번역중) NAT(번역중) PoolFormer(번역중) RegNet(번역중) ResNet(번역중) SegFormer(번역중) Swin Transformer(번역중) Swin Transformer V2(번역중) Swin2SR(번역중) Table Transformer(번역중) TimeSformer(번역중) UperNet(번역중) VAN(번역중) VideoMAE(번역중) Vision Transformer (ViT)(번역중) ViT Hybrid(번역중) ViTMAE(번역중) ViTMSN(번역중) YOLOS
(번역중) 오디오 모델
(번역중) Audio Spectrogram Transformer(번역중) CLAP(번역중) Hubert(번역중) MCTCT(번역중) SEW(번역중) SEW-D(번역중) Speech2Text(번역중) Speech2Text2(번역중) SpeechT5(번역중) UniSpeech(번역중) UniSpeech-SAT(번역중) Wav2Vec2(번역중) Wav2Vec2-Conformer(번역중) Wav2Vec2Phoneme(번역중) WavLM(번역중) Whisper(번역중) XLS-R(번역중) XLSR-Wav2Vec2
(번역중) 멀티모달 모델
(번역중) ALIGN(번역중) AltCLIP(번역중) BLIP(번역중) BLIP-2(번역중) BridgeTower(번역중) Chinese-CLIP(번역중) CLIP(번역중) CLIPSeg(번역중) Data2Vec(번역중) DePlot(번역중) Donut(번역중) FLAVA(번역중) GIT(번역중) GroupViT(번역중) LayoutLM(번역중) LayoutLMV2(번역중) LayoutLMV3(번역중) LayoutXLM(번역중) LiLT(번역중) LXMERT(번역중) MatCha(번역중) MGP-STR(번역중) OneFormer(번역중) OWL-ViT(번역중) Perceiver(번역중) Pix2Struct(번역중) Segment Anything(번역중) Speech Encoder Decoder Models(번역중) TAPAS(번역중) TrOCR(번역중) TVLT(번역중) ViLT(번역중) Vision Encoder Decoder Models(번역중) Vision Text Dual Encoder(번역중) VisualBERT(번역중) X-CLIP
(번역중) 강화학습 모델
(번역중) 시계열 모델
(번역중) Graph models
(번역중) Internal Helpers
You are viewing v4.33.0 version. A newer version v5.8.1 is available.