SentenceTransformer based on intfloat/multilingual-e5-large

This is a sentence-transformers model finetuned from intfloat/multilingual-e5-large. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

  • Model Type: Sentence Transformer
  • Base model: intfloat/multilingual-e5-large
  • Maximum Sequence Length: 512 tokens
  • Output Dimensionality: 1024 tokens
  • Similarity Function: Cosine Similarity

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel 
  (1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
  (2): Normalize()
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("qminh369/tpbank-dense_embedding")
# Run inference
sentences = [
    'Theo quy định của TPBank, làm thế nào để đề nghị tăng hạn mức thẻ tín dụng theo hình thức tín chấp hoặc có TSBĐ?',
    'KH có thể đề nghị TPBank phê duyệt tăng hạn mức Thẻ tín dụng theo hình thức tín chấp (không  có TSBĐ) hoặc có TSBĐ, việc tăng hạn mức Thẻ tín dụng dựa theo hồ sơ KH tương tự KH đề nghị  xét cấp mới hạn mức Thẻ tín dụng tại Điều 8 và Điều 9 Sản phẩm này và thực hiện theo từng đối  tượng KH cụ thể tại Phụ lục 01 – Quy định về cấp hạn mức Thẻ tín dụng đối với nhóm Khách  hàng thông thường (PL01.SP31/CN/TD), Phụ lục 02 – Quy định cấp hạn mức Thẻ tín dụng đối với  nhóm Khách hàng phê duyệt trước theo địa vị, chức vụ và thâm niên công tác  (PL02.SP31/CN/TD), và Phụ lục 03 – Quy định cấp hạn mức Thẻ tín dụng đối với nhóm Khách  hàng nội bộ TPBank và nhóm Khách hàng phê duyệt trước có chứng từ thay thế chứng từ chứng  minh thu nhập (PL03.SP31/CN/TD) của Sản phẩm này.',
    '1. Trung tâm Sản phẩm Tín dụng Bán lẻ - Khối Ngân hàng cá nhân có trách nhiệm hướng dẫn thi hành  và tổ chức thực hiện Sản phẩm này. \n\n2. Các Ông (Bà) thành viên Ban Điều hành, Khối Ngân hàng cá nhân, Khối Tín dụng, Trung tâm Hỗ  trợ tín dụng - Khối Vận hành, các Đơn vị kinh doanh và các Đơn vị, cá nhân liên quan trên toàn hệ  thống TPBank chịu trách nhiệm thi hành Sản phẩm này./.  \n\n\nNơi nhận:  -  Như Điều 29 (để thực hiện);  -  HĐQT, BKS (để báo cáo);  -  LC, RM, QA, IA (để biết);  -  Lưu VP. \n\nTỔNG GIÁM ĐỐC  (Đã ký)  NGUYỄN HƯNG',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 1024]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Evaluation

Metrics

Binary Classification

Metric Value
cosine_accuracy 0.8646
cosine_accuracy_threshold 0.9988
cosine_f1 0.6829
cosine_f1_threshold 0.9988
cosine_precision 0.8235
cosine_recall 0.5833
cosine_ap 0.6305
dot_accuracy 0.8646
dot_accuracy_threshold 0.9988
dot_f1 0.6829
dot_f1_threshold 0.9988
dot_precision 0.8235
dot_recall 0.5833
dot_ap 0.6305
manhattan_accuracy 0.8646
manhattan_accuracy_threshold 1.2318
manhattan_f1 0.6829
manhattan_f1_threshold 1.2318
manhattan_precision 0.8235
manhattan_recall 0.5833
manhattan_ap 0.6652
euclidean_accuracy 0.8646
euclidean_accuracy_threshold 0.0481
euclidean_f1 0.6829
euclidean_f1_threshold 0.0481
euclidean_precision 0.8235
euclidean_recall 0.5833
euclidean_ap 0.6305
max_accuracy 0.8646
max_accuracy_threshold 1.2318
max_f1 0.6829
max_f1_threshold 1.2318
max_precision 0.8235
max_recall 0.5833
max_ap 0.6652

Training Details

Training Dataset

Unnamed Dataset

  • Size: 244 training samples
  • Columns: sentence_0, sentence_1, and label
  • Approximate statistics based on the first 1000 samples:
    sentence_0 sentence_1 label
    type string string int
    details
    • min: 10 tokens
    • mean: 33.5 tokens
    • max: 78 tokens
    • min: 51 tokens
    • mean: 279.02 tokens
    • max: 512 tokens
    • 1: 100.00%
  • Samples:
    sentence_0 sentence_1 label
    Câu hỏi có thể sinh ra từ đoạn văn trên là: "Quy định QD04/CN/TD và Quy trình QT09/CN/TD liên quan đến việc gì trong ngành ngân hàng?" 0
    Những biện pháp cụ thể nào mà CBBH cần thực hiện liên quan đến việc thanh toán Phí Bảo Hiểm Xe và việc mua Bảo Hiểm? Lưu ý:
    + Đối với Bảo Hiểm Xe: Người thụ hưởng bảo hiểm trên GCN bảo hiểm/Hợp đồng bảo hiểm là TPBank

    + Trong vòng 03 ngày làm việc sau giải ngân khoản vay thanh toán Phí Bảo Hiểm Xe/Phí Bảo Hiểm Tín Bảo An hoặc trong vòng 30 ngày làm việc sau giải ngân khoản vay Thanh toán chi phí mua BHNT, CBBH bổ sung Giấy chứng nhận bảo hiểm hoặc Hợp đồng bảo hiểm của KH (Bản copy hoặc bản được in từ hệ thống online của công ty bảo hiểm) cho HTTD tại ĐVKD lưu vào hồ sơ tín dụng. Trường hợp KH cần kiểm tra sức khỏe chuyên sâu dẫn tới quá thời hạn cung cấp trên, CBBH gửi email cho đầu mối phòng [email protected] để xác nhận về thời gian thực tế. Trường hợp Giấy chứng nhận bảo hiểm là bản copy thì CBBH xác nhận đã đối chiếu với bản gốc, trường hợp bản in từ hệ thống thì CBBH tự in và ký xác nhận nội dung đã in từ hệ thống của công ty bảo hiểm.
    1
    Theo thông tin được cung cấp, điều kiện nào cần phải đáp ứng để được vay vốn từ ngân hàng? 0
  • Loss: OnlineContrastiveLoss

Training Hyperparameters

Non-Default Hyperparameters

  • eval_strategy: steps
  • num_train_epochs: 4
  • fp16: True
  • multi_dataset_batch_sampler: round_robin

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: steps
  • prediction_loss_only: True
  • per_device_train_batch_size: 8
  • per_device_eval_batch_size: 8
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • learning_rate: 5e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1
  • num_train_epochs: 4
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.0
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: True
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: False
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: False
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • batch_sampler: batch_sampler
  • multi_dataset_batch_sampler: round_robin

Training Logs

Epoch Step dev_max_ap
0.9677 30 0.6413
1.0 31 0.6394
1.9355 60 0.6365
2.0 62 0.6373
2.9032 90 0.6551
3.0 93 0.6631
3.8710 120 0.6652

Framework Versions

  • Python: 3.10.14
  • Sentence Transformers: 3.0.1
  • Transformers: 4.41.2
  • PyTorch: 2.3.1+cu118
  • Accelerate: 0.32.1
  • Datasets: 2.20.0
  • Tokenizers: 0.19.1

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}
Downloads last month
15
Safetensors
Model size
560M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for qminh369/tpbank-dense_embedding

Finetuned
(68)
this model

Evaluation results