SetFit with mini1013/master_domain

This is a SetFit model that can be used for Text Classification. This SetFit model uses mini1013/master_domain as the Sentence Transformer embedding model. A LogisticRegression instance is used for classification.

The model has been trained using an efficient few-shot learning technique that involves:

  1. Fine-tuning a Sentence Transformer with contrastive learning.
  2. Training a classification head with features from the fine-tuned Sentence Transformer.

Model Details

Model Description

Model Sources

Model Labels

Label Examples
6.0
  • '요거트네일 젤네일 화양연화 9종세트 글리터컬러 시럽컬러 옵션없음 주식회사 코즈랩'
  • '프롬더네일 로코 핑크 자석젤 자석네일 단품 진주 2알 FG130+진주 2알 백억언니'
  • '루벤스 바르면 펴지는 딱 올려젤 10ml 3개입 내성발톱 문제성발톱 옵션없음 제네시스오브네일'
5.0
  • '[1+1] 데싱디바 글레이즈 여름 최신상 젤네일&페디 DASHING DIVA'
  • '잇템샵 네일팁 인조손톱 패디팁 붙이는네일아트 페디큐어 브라이트핑크 내가원하는잇템샵'
  • '크레아 네일 디자인팁 수제팁 택1 DMC 네일아트재료'
1.0
  • '모양89 스톤와이어 리본 네일스티커 블루믹스 (AF-01) 단지네 네일가게'
  • '태닝키티파츠 TKT-02-08 썬탠키티 5개입 탄 갸루 하와이 비키니 태닝키티파츠 TKT-02-01 5개입 임프주식회사'
  • '네일아트 리필팁 네일팁 숏오발 A타입클리어1호-50개입 풀팁_1.클리어_8호(8.2X21mm) 단지네 네일가게'
0.0
  • '블루크로스 큐티클리무버 32oz+뾰족캡 공병 32oz (+뾰족캡 공병 증정♥) 주식회사 시그니처바스켓(SIGNATURE BASKET)'
  • '루핀 젤클리너 젤리무버 500ml 아세톤 젤클렌져 루핀젤리무버500ml 신나라닷컴'
  • '블루크로스 큐티클 리무버 6oz 리무버 오일펜 공병 6oz+오일펜1개+공병1개 2N(투엔)'
3.0
  • '손톱깎이 클리퍼 세트 가정용 관리 기기 Green 4-piece set 영무몰'
  • 'Coms LED 손톱깎이돋보기CW-816 조명 KW6E00D3 옵션없음 하니스토어13'
  • '메이보릿 메보카세 브러쉬 셋트 , 실버글로시 옵션없음 마법사네일'
4.0
  • '[위드샨] 맞춤 케어 2종 세트 (3타입 중 택1) 잘 부러지고 약한 손톱(스트랭쓰너+쉴드탑) 주식회사손과발'
  • '셀프 젤네일 세트 홈 키트 로나네일'
  • '루카너스 프리미엄구성 여자친구선물 셀프네일세트 큐티클제거 손톱관리 네일세트 9종 1박스 루카너스'
2.0
  • '퍼펙토 발톱연화제 나겔바이셔 20ml 발톱연화제 1개+2in1 큐렛&샤퍼 1개 주식회사 킹케어(KINGCAIR Co., Ltd.)'
  • '뉴 요피클리어 13ml 핑거스 문제성 손발톱관리 리뉴얼 세럼 옵션없음 제이비컴퍼니'
  • '케라셀 패치 14매 나이트타임 손발톱영양제 손발톱 강화제 옵션없음 행운'

Evaluation

Metrics

Label Accuracy
all 0.6072

Uses

Direct Use for Inference

First install the SetFit library:

pip install setfit

Then you can load this model and run inference.

from setfit import SetFitModel

# Download from the 🤗 Hub
model = SetFitModel.from_pretrained("mini1013/master_cate_bt1_test")
# Run inference
preds = model("더젤 젤리무버 더젤 젤리무버 + 오팔스톤2알 주식회사 이룸")

Training Details

Training Set Metrics

Training set Min Median Max
Word count 4 9.3955 18
Label Training Sample Count
0.0 16
1.0 19
2.0 21
3.0 32
4.0 10
5.0 16
6.0 20

Training Hyperparameters

  • batch_size: (512, 512)
  • num_epochs: (50, 50)
  • max_steps: -1
  • sampling_strategy: oversampling
  • num_iterations: 60
  • body_learning_rate: (2e-05, 1e-05)
  • head_learning_rate: 0.01
  • loss: CosineSimilarityLoss
  • distance_metric: cosine_distance
  • margin: 0.25
  • end_to_end: False
  • use_amp: False
  • warmup_proportion: 0.1
  • l2_weight: 0.01
  • seed: 42
  • eval_max_steps: -1
  • load_best_model_at_end: False

Training Results

Epoch Step Training Loss Validation Loss
0.0625 1 0.4888 -
3.125 50 0.3006 -
6.25 100 0.0746 -
9.375 150 0.0192 -
12.5 200 0.0002 -
15.625 250 0.0001 -
18.75 300 0.0001 -
21.875 350 0.0001 -
25.0 400 0.0001 -
28.125 450 0.0 -
31.25 500 0.0 -
34.375 550 0.0 -
37.5 600 0.0 -
40.625 650 0.0 -
43.75 700 0.0 -
46.875 750 0.0 -
50.0 800 0.0 -

Framework Versions

  • Python: 3.10.12
  • SetFit: 1.1.0
  • Sentence Transformers: 3.3.1
  • Transformers: 4.44.2
  • PyTorch: 2.2.0a0+81ea7a4
  • Datasets: 3.2.0
  • Tokenizers: 0.19.1

Citation

BibTeX

@article{https://doi.org/10.48550/arxiv.2209.11055,
    doi = {10.48550/ARXIV.2209.11055},
    url = {https://arxiv.org/abs/2209.11055},
    author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren},
    keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences},
    title = {Efficient Few-Shot Learning Without Prompts},
    publisher = {arXiv},
    year = {2022},
    copyright = {Creative Commons Attribution 4.0 International}
}
Downloads last month
12
Safetensors
Model size
111M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for mini1013/master_cate_bt1_test

Base model

klue/roberta-base
Finetuned
(131)
this model

Evaluation results