SentenceTransformer based on estrogen/ModernBERT-base-sbert-initialized

This is a sentence-transformers model finetuned from estrogen/ModernBERT-base-sbert-initialized on the msmarco-bm25 dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 8192, 'do_lower_case': False}) with Transformer model: ModernBertModel 
  (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("estrogen/ModernBERT-base-marco")
# Run inference
sentences = [
    '[unused0]what period do we live in',
    '[unused1]Earth is currently in the Quaternary Period of the Cenozoic Era.',
    '[unused1]Thereâ\x80\x99s a big difference in drive time depending on what part of Ewa Beach you live in â\x80\x94 the homes in Ocean Point (most southern part of Ewa) have a 20 minute longer drive than we do, even though we both live in the town of Ewa Beach.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Evaluation

Metrics

Triplet

Metric Value
cosine_accuracy 0.9537

Triplet

Metric Value
cosine_accuracy 0.9587

Training Details

Training Dataset

msmarco-bm25

  • Dataset: msmarco-bm25 at ce8a493
  • Size: 19,139,199 training samples
  • Columns: query, positive, and negative
  • Approximate statistics based on the first 1000 samples:
    query positive negative
    type string string string
    details
    • min: 6 tokens
    • mean: 10.51 tokens
    • max: 17 tokens
    • min: 45 tokens
    • mean: 86.37 tokens
    • max: 212 tokens
    • min: 25 tokens
    • mean: 80.75 tokens
    • max: 222 tokens
  • Samples:
    query positive negative
    [unused0]what are the liberal arts? [unused1]liberal arts. 1. the academic course of instruction at a college intended to provide general knowledge and comprising the arts, humanities, natural sciences, and social sciences, as opposed to professional or technical subjects. [unused1]The New York State Education Department requires 60 Liberal Arts credits in a Bachelor of Science program and 90 Liberal Arts credits in a Bachelor of Arts program. In the list of course descriptions, courses which are liberal arts for all students are identified by (Liberal Arts) after the course number.
    [unused0]what are the liberal arts? [unused1]liberal arts. 1. the academic course of instruction at a college intended to provide general knowledge and comprising the arts, humanities, natural sciences, and social sciences, as opposed to professional or technical subjects. [unused1]You can choose from an array of liberal arts majors. Most of these are offered in the liberal arts departments of colleges that belong to universities and at smaller colleges that are designated as liberal arts institutions.
    [unused0]what are the liberal arts? [unused1]liberal arts. 1. the academic course of instruction at a college intended to provide general knowledge and comprising the arts, humanities, natural sciences, and social sciences, as opposed to professional or technical subjects. [unused1]Majors. You can choose from an array of liberal arts majors. Most of these are offered in the liberal arts departments of colleges that belong to universities and at smaller colleges that are designated as liberal arts institutions.
  • Loss: MatryoshkaLoss with these parameters:
    {
        "loss": "MultipleNegativesRankingLoss",
        "matryoshka_dims": [
            768,
            512,
            256,
            128,
            64
        ],
        "matryoshka_weights": [
            1,
            0.9,
            0.81,
            0.7290000000000001,
            0.6561
        ],
        "n_dims_per_step": -1
    }
    

Evaluation Dataset

msmarco-bm25

  • Dataset: msmarco-bm25 at ce8a493
  • Size: 19,139,199 evaluation samples
  • Columns: query, positive, and negative
  • Approximate statistics based on the first 1000 samples:
    query positive negative
    type string string string
    details
    • min: 5 tokens
    • mean: 10.42 tokens
    • max: 23 tokens
    • min: 20 tokens
    • mean: 80.07 tokens
    • max: 167 tokens
    • min: 18 tokens
    • mean: 82.48 tokens
    • max: 213 tokens
  • Samples:
    query positive negative
    [unused0]different uses of corn [unused1]Corn or maize oil is extracted from the germ of corn, and its main use is for cooking. It is also a key ingredient in margarine and other processed foods. Corn oil is also a feedstock used for biodiesel.From 2012 to 2014, the use of nonfood-grade (NFG) corn oil for biodiesel production has grown tremendously.ses of Corn Oil. Apart from serving as a less-than-ideal cooking oil, corn oil has several industrial uses, including as an addition to soap, salve, paint, ink, textiles, and insecticides. It also sometimes functions as a carrier for drug molecules in pharmaceutical products. [unused1]Impact of Ethanol on Corn Prices. The U.S. produces 40 percent of the world’s corn, [5] and ethanol production uses about 40 percent of U.S. corn production, [6] but roughly one-third of the value of the corn used in ethanol production returns to the feed market as DDGS.
    [unused0]different uses of corn [unused1]Corn or maize oil is extracted from the germ of corn, and its main use is for cooking. It is also a key ingredient in margarine and other processed foods. Corn oil is also a feedstock used for biodiesel.From 2012 to 2014, the use of nonfood-grade (NFG) corn oil for biodiesel production has grown tremendously.ses of Corn Oil. Apart from serving as a less-than-ideal cooking oil, corn oil has several industrial uses, including as an addition to soap, salve, paint, ink, textiles, and insecticides. It also sometimes functions as a carrier for drug molecules in pharmaceutical products. [unused1]But ask different reptile keepers how long corn do corn snakes get and you won't get one standard answer. Like us humans, who may grow to little more than 5 feet tall to well over 6 feet in adults, different corn snakes attain different sizes.
    [unused0]different uses of corn [unused1]Corn or maize oil is extracted from the germ of corn, and its main use is for cooking. It is also a key ingredient in margarine and other processed foods. Corn oil is also a feedstock used for biodiesel.From 2012 to 2014, the use of nonfood-grade (NFG) corn oil for biodiesel production has grown tremendously.ses of Corn Oil. Apart from serving as a less-than-ideal cooking oil, corn oil has several industrial uses, including as an addition to soap, salve, paint, ink, textiles, and insecticides. It also sometimes functions as a carrier for drug molecules in pharmaceutical products. [unused1]The corn system uses a large amount of natural resources. Even though it does not deliver as much food as comparable systems around the globe, the American corn system continues to use a large proportion of our country’s natural resources.he corn system uses a large amount of natural resources. Even though it does not deliver as much food as comparable systems around the globe, the American corn system continues to use a large proportion of our country’s natural resources.
  • Loss: MatryoshkaLoss with these parameters:
    {
        "loss": "MultipleNegativesRankingLoss",
        "matryoshka_dims": [
            768,
            512,
            256,
            128,
            64
        ],
        "matryoshka_weights": [
            1,
            0.9,
            0.81,
            0.7290000000000001,
            0.6561
        ],
        "n_dims_per_step": -1
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • eval_strategy: steps
  • per_device_train_batch_size: 256
  • per_device_eval_batch_size: 256
  • num_train_epochs: 1
  • warmup_ratio: 0.1
  • bf16: True
  • prompts: {'query': '[unused0]', 'positive': '[unused1]', 'negative': '[unused1]'}
  • batch_sampler: no_duplicates

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: steps
  • prediction_loss_only: True
  • per_device_train_batch_size: 256
  • per_device_eval_batch_size: 256
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 5e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 1
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.1
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: True
  • fp16: False
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: False
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: None
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • include_for_metrics: []
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • use_liger_kernel: False
  • eval_use_gather_object: False
  • average_tokens_across_devices: False
  • prompts: {'query': '[unused0]', 'positive': '[unused1]', 'negative': '[unused1]'}
  • batch_sampler: no_duplicates
  • multi_dataset_batch_sampler: proportional

Training Logs

Click to expand
Epoch Step Training Loss Validation Loss ms_marco_cosine_accuracy
0 0 - - 0.5833
0.0005 1 24.3765 - -
0.0010 2 24.4903 - -
0.0015 3 24.4595 - -
0.0020 4 24.2913 - -
0.0026 5 24.355 - -
0.0031 6 24.2594 - -
0.0036 7 24.1731 - -
0.0041 8 24.135 - -
0.0046 9 23.9455 - -
0.0051 10 23.9964 - -
0.0056 11 23.7097 - -
0.0061 12 23.6735 - -
0.0067 13 23.4437 - -
0.0072 14 23.3786 - -
0.0077 15 23.2145 - -
0.0082 16 23.056 - -
0.0087 17 22.9313 - -
0.0092 18 22.6844 - -
0.0097 19 22.5722 - -
0.0102 20 22.4012 - -
0.0107 21 22.1844 - -
0.0113 22 21.9721 - -
0.0118 23 21.7602 - -
0.0123 24 21.4919 - -
0.0128 25 21.2078 - -
0.0133 26 20.9653 - -
0.0138 27 20.6508 - -
0.0143 28 20.2809 - -
0.0148 29 19.8262 - -
0.0154 30 19.3564 - -
0.0159 31 18.9138 - -
0.0164 32 18.2485 - -
0.0169 33 17.63 - -
0.0174 34 17.028 - -
0.0179 35 16.2372 - -
0.0184 36 15.3384 - -
0.0189 37 14.3885 - -
0.0194 38 13.4842 - -
0.0200 39 12.6733 - -
0.0205 40 11.8822 - -
0.0210 41 11.2018 - -
0.0215 42 10.2756 - -
0.0220 43 9.2841 - -
0.0225 44 8.8121 - -
0.0230 45 7.973 - -
0.0235 46 7.3955 - -
0.0241 47 6.9961 - -
0.0246 48 6.9545 - -
0.0251 49 6.4636 - -
0.0256 50 5.9562 - -
0.0261 51 5.6653 - -
0.0266 52 5.0228 - -
0.0271 53 4.6302 - -
0.0276 54 4.0535 - -
0.0281 55 3.714 - -
0.0287 56 3.2454 - -
0.0292 57 2.9078 - -
0.0297 58 2.6236 - -
0.0302 59 2.4775 - -
0.0307 60 2.1067 - -
0.0312 61 2.1748 - -
0.0317 62 1.9844 - -
0.0322 63 1.7707 - -
0.0328 64 1.6281 - -
0.0333 65 1.9416 - -
0.0338 66 1.5796 - -
0.0343 67 1.5611 - -
0.0348 68 1.5282 - -
0.0353 69 1.6081 - -
0.0358 70 1.4455 - -
0.0363 71 1.3649 - -
0.0368 72 1.0884 - -
0.0374 73 0.9736 - -
0.0379 74 0.8036 - -
0.0384 75 0.8466 - -
0.0389 76 0.8594 - -
0.0394 77 0.8887 - -
0.0399 78 0.8299 - -
0.0404 79 0.8561 - -
0.0409 80 1.0354 - -
0.0415 81 1.1445 - -
0.0420 82 1.1131 - -
0.0425 83 1.114 - -
0.0430 84 1.032 - -
0.0435 85 0.8509 - -
0.0440 86 0.7415 - -
0.0445 87 1.1415 - -
0.0450 88 1.1622 - -
0.0455 89 1.2912 - -
0.0461 90 1.0092 - -
0.0466 91 0.7901 - -
0.0471 92 0.7782 - -
0.0476 93 0.6596 - -
0.0481 94 0.5789 - -
0.0486 95 0.8727 - -
0.0491 96 0.6869 - -
0.0496 97 0.7282 - -
0.0502 98 0.6578 - -
0.0507 99 0.6303 - -
0.0512 100 0.4592 2.8360 0.8286
0.0517 101 0.6197 - -
0.0522 102 0.737 - -
0.0527 103 0.538 - -
0.0532 104 0.435 - -
0.0537 105 0.3955 - -
0.0542 106 0.2621 - -
0.0548 107 0.2742 - -
0.0553 108 0.2802 - -
0.0558 109 0.2681 - -
0.0563 110 0.2489 - -
0.0568 111 0.2985 - -
0.0573 112 0.5011 - -
0.0578 113 0.4239 - -
0.0583 114 0.5619 - -
0.0589 115 0.3498 - -
0.0594 116 0.5731 - -
0.0599 117 0.4297 - -
0.0604 118 0.4703 - -
0.0609 119 0.449 - -
0.0614 120 0.4708 - -
0.0619 121 0.4467 - -
0.0624 122 0.4263 - -
0.0629 123 0.3481 - -
0.0635 124 0.2899 - -
0.0640 125 0.4778 - -
0.0645 126 0.7366 - -
0.0650 127 0.5905 - -
0.0655 128 0.5095 - -
0.0660 129 0.3977 - -
0.0665 130 0.4885 - -
0.0670 131 0.4421 - -
0.0676 132 0.2875 - -
0.0681 133 0.4082 - -
0.0686 134 0.424 - -
0.0691 135 0.5184 - -
0.0696 136 0.4225 - -
0.0701 137 0.4612 - -
0.0706 138 0.3632 - -
0.0711 139 0.3489 - -
0.0716 140 0.3888 - -
0.0722 141 0.367 - -
0.0727 142 0.3191 - -
0.0732 143 0.4214 - -
0.0737 144 0.3566 - -
0.0742 145 0.2213 - -
0.0747 146 0.2371 - -
0.0752 147 0.2611 - -
0.0757 148 0.1732 - -
0.0763 149 0.223 - -
0.0768 150 0.1442 - -
0.0773 151 0.2201 - -
0.0778 152 0.379 - -
0.0783 153 0.3073 - -
0.0788 154 0.2447 - -
0.0793 155 0.3104 - -
0.0798 156 0.3395 - -
0.0803 157 0.2449 - -
0.0809 158 0.226 - -
0.0814 159 0.2058 - -
0.0819 160 0.2084 - -
0.0824 161 0.1993 - -
0.0829 162 0.1208 - -
0.0834 163 0.1055 - -
0.0839 164 0.2083 - -
0.0844 165 0.2167 - -
0.0850 166 0.2169 - -
0.0855 167 0.194 - -
0.0860 168 0.2136 - -
0.0865 169 0.2185 - -
0.0870 170 0.2675 - -
0.0875 171 0.2817 - -
0.0880 172 0.3723 - -
0.0885 173 0.5269 - -
0.0890 174 0.2643 - -
0.0896 175 0.2437 - -
0.0901 176 0.1549 - -
0.0906 177 0.1461 - -
0.0911 178 0.1395 - -
0.0916 179 0.1506 - -
0.0921 180 0.2542 - -
0.0926 181 0.2022 - -
0.0931 182 0.1756 - -
0.0937 183 0.2411 - -
0.0942 184 0.3402 - -
0.0947 185 0.3534 - -
0.0952 186 0.2632 - -
0.0957 187 0.3643 - -
0.0962 188 0.4046 - -
0.0967 189 0.2619 - -
0.0972 190 0.1575 - -
0.0977 191 0.12 - -
0.0983 192 0.1157 - -
0.0988 193 0.2453 - -
0.0993 194 0.2406 - -
0.0998 195 0.1784 - -
0.1003 196 0.2226 - -
0.1008 197 0.1963 - -
0.1013 198 0.0964 - -
0.1018 199 0.1413 - -
0.1024 200 0.1467 1.6950 0.915
0.1029 201 0.322 - -
0.1034 202 0.3444 - -
0.1039 203 0.2968 - -
0.1044 204 0.227 - -
0.1049 205 0.3337 - -
0.1054 206 0.2653 - -
0.1059 207 0.251 - -
0.1064 208 0.1667 - -
0.1070 209 0.106 - -
0.1075 210 0.1635 - -
0.1080 211 0.1338 - -
0.1085 212 0.1247 - -
0.1090 213 0.12 - -
0.1095 214 0.2283 - -
0.1100 215 0.2245 - -
0.1105 216 0.2821 - -
0.1111 217 0.23 - -
0.1116 218 0.3457 - -
0.1121 219 0.4413 - -
0.1126 220 0.3201 - -
0.1131 221 0.3959 - -
0.1136 222 0.323 - -
0.1141 223 0.1532 - -
0.1146 224 0.2216 - -
0.1151 225 0.2449 - -
0.1157 226 0.1398 - -
0.1162 227 0.2693 - -
0.1167 228 0.265 - -
0.1172 229 0.2228 - -
0.1177 230 0.2179 - -
0.1182 231 0.1581 - -
0.1187 232 0.2204 - -
0.1192 233 0.1252 - -
0.1198 234 0.2252 - -
0.1203 235 0.2116 - -
0.1208 236 0.1856 - -
0.1213 237 0.1115 - -
0.1218 238 0.0827 - -
0.1223 239 0.2732 - -
0.1228 240 0.2076 - -
0.1233 241 0.1214 - -
0.1238 242 0.1385 - -
0.1244 243 0.3275 - -
0.1249 244 0.307 - -
0.1254 245 0.1637 - -
0.1259 246 0.3614 - -
0.1264 247 0.2571 - -
0.1269 248 0.2131 - -
0.1274 249 0.2254 - -
0.1279 250 0.1677 - -
0.1285 251 0.2697 - -
0.1290 252 0.205 - -
0.1295 253 0.1395 - -
0.1300 254 0.1931 - -
0.1305 255 0.2205 - -
0.1310 256 0.1271 - -
0.1315 257 0.1029 - -
0.1320 258 0.0632 - -
0.1325 259 0.0594 - -
0.1331 260 0.2551 - -
0.1336 261 0.3609 - -
0.1341 262 0.3379 - -
0.1346 263 0.2832 - -
0.1351 264 0.2797 - -
0.1356 265 0.2167 - -
0.1361 266 0.2362 - -
0.1366 267 0.1922 - -
0.1372 268 0.2488 - -
0.1377 269 0.135 - -
0.1382 270 0.1064 - -
0.1387 271 0.1245 - -
0.1392 272 0.1605 - -
0.1397 273 0.1739 - -
0.1402 274 0.1816 - -
0.1407 275 0.1802 - -
0.1412 276 0.1227 - -
0.1418 277 0.1445 - -
0.1423 278 0.1052 - -
0.1428 279 0.0774 - -
0.1433 280 0.0778 - -
0.1438 281 0.1116 - -
0.1443 282 0.3067 - -
0.1448 283 0.3255 - -
0.1453 284 0.2831 - -
0.1459 285 0.2623 - -
0.1464 286 0.2323 - -
0.1469 287 0.2093 - -
0.1474 288 0.1023 - -
0.1479 289 0.1909 - -
0.1484 290 0.1476 - -
0.1489 291 0.1069 - -
0.1494 292 0.2284 - -
0.1499 293 0.1341 - -
0.1505 294 0.0924 - -
0.1510 295 0.1264 - -
0.1515 296 0.0836 - -
0.1520 297 0.163 - -
0.1525 298 0.0946 - -
0.1530 299 0.0784 - -
0.1535 300 0.2065 1.3301 0.9233
0.1540 301 0.133 - -
0.1546 302 0.1105 - -
0.1551 303 0.1045 - -
0.1556 304 0.136 - -
0.1561 305 0.0834 - -
0.1566 306 0.0856 - -
0.1571 307 0.1069 - -
0.1576 308 0.2031 - -
0.1581 309 0.1742 - -
0.1586 310 0.1186 - -
0.1592 311 0.0532 - -
0.1597 312 0.0982 - -
0.1602 313 0.1013 - -
0.1607 314 0.1019 - -
0.1612 315 0.1899 - -
0.1617 316 0.133 - -
0.1622 317 0.242 - -
0.1627 318 0.3231 - -
0.1633 319 0.3294 - -
0.1638 320 0.3034 - -
0.1643 321 0.263 - -
0.1648 322 0.2273 - -
0.1653 323 0.1982 - -
0.1658 324 0.143 - -
0.1663 325 0.317 - -
0.1668 326 0.3259 - -
0.1673 327 0.2158 - -
0.1679 328 0.231 - -
0.1684 329 0.1733 - -
0.1689 330 0.3191 - -
0.1694 331 0.187 - -
0.1699 332 0.169 - -
0.1704 333 0.2259 - -
0.1709 334 0.2909 - -
0.1714 335 0.3047 - -
0.1720 336 0.2925 - -
0.1725 337 0.2579 - -
0.1730 338 0.2226 - -
0.1735 339 0.3724 - -
0.1740 340 0.2634 - -
0.1745 341 0.1856 - -
0.1750 342 0.1102 - -
0.1755 343 0.1205 - -
0.1760 344 0.1154 - -
0.1766 345 0.1558 - -
0.1771 346 0.0789 - -
0.1776 347 0.1674 - -
0.1781 348 0.1188 - -
0.1786 349 0.163 - -
0.1791 350 0.197 - -
0.1796 351 0.1017 - -
0.1801 352 0.0914 - -
0.1807 353 0.1576 - -
0.1812 354 0.1809 - -
0.1817 355 0.1624 - -
0.1822 356 0.1636 - -
0.1827 357 0.1473 - -
0.1832 358 0.1839 - -
0.1837 359 0.1494 - -
0.1842 360 0.1326 - -
0.1847 361 0.1545 - -
0.1853 362 0.1588 - -
0.1858 363 0.0975 - -
0.1863 364 0.1363 - -
0.1868 365 0.1248 - -
0.1873 366 0.1328 - -
0.1878 367 0.1329 - -
0.1883 368 0.0755 - -
0.1888 369 0.2535 - -
0.1894 370 0.2484 - -
0.1899 371 0.2538 - -
0.1904 372 0.1597 - -
0.1909 373 0.188 - -
0.1914 374 0.0946 - -
0.1919 375 0.0899 - -
0.1924 376 0.0814 - -
0.1929 377 0.1024 - -
0.1934 378 0.2536 - -
0.1940 379 0.1975 - -
0.1945 380 0.1364 - -
0.1950 381 0.1144 - -
0.1955 382 0.1584 - -
0.1960 383 0.2206 - -
0.1965 384 0.2278 - -
0.1970 385 0.3123 - -
0.1975 386 0.1633 - -
0.1981 387 0.1344 - -
0.1986 388 0.2176 - -
0.1991 389 0.132 - -
0.1996 390 0.1022 - -
0.2001 391 0.1819 - -
0.2006 392 0.1488 - -
0.2011 393 0.0793 - -
0.2016 394 0.1097 - -
0.2021 395 0.0742 - -
0.2027 396 0.1336 - -
0.2032 397 0.102 - -
0.2037 398 0.0837 - -
0.2042 399 0.0948 - -
0.2047 400 0.0911 1.2098 0.9202
0.2052 401 0.1793 - -
0.2057 402 0.1949 - -
0.2062 403 0.1297 - -
0.2068 404 0.0983 - -
0.2073 405 0.1735 - -
0.2078 406 0.1271 - -
0.2083 407 0.1855 - -
0.2088 408 0.1755 - -
0.2093 409 0.1591 - -
0.2098 410 0.2311 - -
0.2103 411 0.2291 - -
0.2108 412 0.0812 - -
0.2114 413 0.0893 - -
0.2119 414 0.1559 - -
0.2124 415 0.2663 - -
0.2129 416 0.257 - -
0.2134 417 0.1864 - -
0.2139 418 0.1735 - -
0.2144 419 0.1028 - -
0.2149 420 0.1494 - -
0.2155 421 0.1528 - -
0.2160 422 0.3732 - -
0.2165 423 0.2663 - -
0.2170 424 0.2487 - -
0.2175 425 0.28 - -
0.2180 426 0.1857 - -
0.2185 427 0.1069 - -
0.2190 428 0.138 - -
0.2195 429 0.106 - -
0.2201 430 0.1366 - -
0.2206 431 0.1444 - -
0.2211 432 0.0695 - -
0.2216 433 0.0652 - -
0.2221 434 0.0771 - -
0.2226 435 0.1724 - -
0.2231 436 0.1494 - -
0.2236 437 0.1837 - -
0.2242 438 0.1885 - -
0.2247 439 0.3021 - -
0.2252 440 0.2301 - -
0.2257 441 0.1372 - -
0.2262 442 0.1413 - -
0.2267 443 0.1489 - -
0.2272 444 0.2566 - -
0.2277 445 0.1504 - -
0.2282 446 0.1567 - -
0.2288 447 0.2548 - -
0.2293 448 0.2375 - -
0.2298 449 0.2346 - -
0.2303 450 0.2818 - -
0.2308 451 0.1814 - -
0.2313 452 0.1792 - -
0.2318 453 0.1701 - -
0.2323 454 0.158 - -
0.2329 455 0.0782 - -
0.2334 456 0.0762 - -
0.2339 457 0.1317 - -
0.2344 458 0.1143 - -
0.2349 459 0.0982 - -
0.2354 460 0.1041 - -
0.2359 461 0.0873 - -
0.2364 462 0.1718 - -
0.2369 463 0.2022 - -
0.2375 464 0.4147 - -
0.2380 465 0.3045 - -
0.2385 466 0.2021 - -
0.2390 467 0.2004 - -
0.2395 468 0.1474 - -
0.2400 469 0.2358 - -
0.2405 470 0.2385 - -
0.2410 471 0.2669 - -
0.2416 472 0.1408 - -
0.2421 473 0.1248 - -
0.2426 474 0.0805 - -
0.2431 475 0.0821 - -
0.2436 476 0.0498 - -
0.2441 477 0.0886 - -
0.2446 478 0.066 - -
0.2451 479 0.1148 - -
0.2456 480 0.1282 - -
0.2462 481 0.1113 - -
0.2467 482 0.0992 - -
0.2472 483 0.2702 - -
0.2477 484 0.2504 - -
0.2482 485 0.3917 - -
0.2487 486 0.1506 - -
0.2492 487 0.1238 - -
0.2497 488 0.1337 - -
0.2503 489 0.2255 - -
0.2508 490 0.1447 - -
0.2513 491 0.2208 - -
0.2518 492 0.268 - -
0.2523 493 0.174 - -
0.2528 494 0.2124 - -
0.2533 495 0.1783 - -
0.2538 496 0.1945 - -
0.2544 497 0.1642 - -
0.2549 498 0.2724 - -
0.2554 499 0.1823 - -
0.2559 500 0.18 1.1056 0.913
0.2564 501 0.1871 - -
0.2569 502 0.1611 - -
0.2574 503 0.1915 - -
0.2579 504 0.1281 - -
0.2584 505 0.1793 - -
0.2590 506 0.0993 - -
0.2595 507 0.1785 - -
0.2600 508 0.1308 - -
0.2605 509 0.1142 - -
0.2610 510 0.0932 - -
0.2615 511 0.1643 - -
0.2620 512 0.175 - -
0.2625 513 0.2568 - -
0.2631 514 0.1534 - -
0.2636 515 0.105 - -
0.2641 516 0.0964 - -
0.2646 517 0.062 - -
0.2651 518 0.123 - -
0.2656 519 0.1892 - -
0.2661 520 0.1282 - -
0.2666 521 0.1243 - -
0.2671 522 0.1051 - -
0.2677 523 0.1257 - -
0.2682 524 0.2121 - -
0.2687 525 0.2357 - -
0.2692 526 0.1355 - -
0.2697 527 0.0861 - -
0.2702 528 0.0632 - -
0.2707 529 0.0652 - -
0.2712 530 0.1102 - -
0.2718 531 0.3408 - -
0.2723 532 0.3124 - -
0.2728 533 0.1656 - -
0.2733 534 0.2136 - -
0.2738 535 0.1601 - -
0.2743 536 0.3403 - -
0.2748 537 0.3067 - -
0.2753 538 0.2028 - -
0.2758 539 0.1166 - -
0.2764 540 0.1655 - -
0.2769 541 0.1911 - -
0.2774 542 0.2947 - -
0.2779 543 0.259 - -
0.2784 544 0.1485 - -
0.2789 545 0.2414 - -
0.2794 546 0.1195 - -
0.2799 547 0.128 - -
0.2805 548 0.1484 - -
0.2810 549 0.1338 - -
0.2815 550 0.1516 - -
0.2820 551 0.1856 - -
0.2825 552 0.2027 - -
0.2830 553 0.1686 - -
0.2835 554 0.1355 - -
0.2840 555 0.1367 - -
0.2845 556 0.0977 - -
0.2851 557 0.0916 - -
0.2856 558 0.1016 - -
0.2861 559 0.105 - -
0.2866 560 0.0681 - -
0.2871 561 0.1317 - -
0.2876 562 0.0983 - -
0.2881 563 0.1189 - -
0.2886 564 0.1822 - -
0.2892 565 0.1149 - -
0.2897 566 0.0516 - -
0.2902 567 0.0912 - -
0.2907 568 0.1609 - -
0.2912 569 0.1439 - -
0.2917 570 0.1051 - -
0.2922 571 0.1287 - -
0.2927 572 0.1966 - -
0.2932 573 0.1681 - -
0.2938 574 0.1248 - -
0.2943 575 0.204 - -
0.2948 576 0.2069 - -
0.2953 577 0.1346 - -
0.2958 578 0.144 - -
0.2963 579 0.1006 - -
0.2968 580 0.0653 - -
0.2973 581 0.0606 - -
0.2979 582 0.0959 - -
0.2984 583 0.2208 - -
0.2989 584 0.2492 - -
0.2994 585 0.224 - -
0.2999 586 0.2556 - -
0.3004 587 0.1741 - -
0.3009 588 0.1486 - -
0.3014 589 0.2298 - -
0.3019 590 0.1557 - -
0.3025 591 0.2844 - -
0.3030 592 0.235 - -
0.3035 593 0.1801 - -
0.3040 594 0.1602 - -
0.3045 595 0.131 - -
0.3050 596 0.1771 - -
0.3055 597 0.0996 - -
0.3060 598 0.0809 - -
0.3066 599 0.1244 - -
0.3071 600 0.1467 1.1270 0.9164
0.3076 601 0.1539 - -
0.3081 602 0.1627 - -
0.3086 603 0.094 - -
0.3091 604 0.0673 - -
0.3096 605 0.0628 - -
0.3101 606 0.0661 - -
0.3106 607 0.059 - -
0.3112 608 0.0386 - -
0.3117 609 0.0659 - -
0.3122 610 0.1256 - -
0.3127 611 0.2102 - -
0.3132 612 0.2038 - -
0.3137 613 0.2993 - -
0.3142 614 0.2537 - -
0.3147 615 0.2742 - -
0.3153 616 0.2262 - -
0.3158 617 0.1024 - -
0.3163 618 0.1367 - -
0.3168 619 0.2258 - -
0.3173 620 0.1861 - -
0.3178 621 0.1482 - -
0.3183 622 0.1205 - -
0.3188 623 0.2656 - -
0.3193 624 0.3613 - -
0.3199 625 0.1914 - -
0.3204 626 0.2363 - -
0.3209 627 0.1523 - -
0.3214 628 0.1676 - -
0.3219 629 0.1536 - -
0.3224 630 0.1544 - -
0.3229 631 0.1694 - -
0.3234 632 0.133 - -
0.3240 633 0.163 - -
0.3245 634 0.2706 - -
0.3250 635 0.3171 - -
0.3255 636 0.2479 - -
0.3260 637 0.1399 - -
0.3265 638 0.1158 - -
0.3270 639 0.17 - -
0.3275 640 0.1492 - -
0.3280 641 0.2517 - -
0.3286 642 0.1551 - -
0.3291 643 0.083 - -
0.3296 644 0.0845 - -
0.3301 645 0.321 - -
0.3306 646 0.2162 - -
0.3311 647 0.1856 - -
0.3316 648 0.2404 - -
0.3321 649 0.2655 - -
0.3327 650 0.1434 - -
0.3332 651 0.0856 - -
0.3337 652 0.1041 - -
0.3342 653 0.2421 - -
0.3347 654 0.2219 - -
0.3352 655 0.1435 - -
0.3357 656 0.1785 - -
0.3362 657 0.1608 - -
0.3367 658 0.1657 - -
0.3373 659 0.1231 - -
0.3378 660 0.1121 - -
0.3383 661 0.1749 - -
0.3388 662 0.166 - -
0.3393 663 0.1778 - -
0.3398 664 0.1772 - -
0.3403 665 0.1969 - -
0.3408 666 0.249 - -
0.3414 667 0.1366 - -
0.3419 668 0.0856 - -
0.3424 669 0.212 - -
0.3429 670 0.1776 - -
0.3434 671 0.1713 - -
0.3439 672 0.1108 - -
0.3444 673 0.2103 - -
0.3449 674 0.2127 - -
0.3454 675 0.1979 - -
0.3460 676 0.2033 - -
0.3465 677 0.2822 - -
0.3470 678 0.2751 - -
0.3475 679 0.205 - -
0.3480 680 0.1969 - -
0.3485 681 0.3404 - -
0.3490 682 0.2905 - -
0.3495 683 0.2031 - -
0.3501 684 0.1358 - -
0.3506 685 0.1563 - -
0.3511 686 0.1294 - -
0.3516 687 0.1183 - -
0.3521 688 0.0738 - -
0.3526 689 0.088 - -
0.3531 690 0.1325 - -
0.3536 691 0.2572 - -
0.3541 692 0.2373 - -
0.3547 693 0.2355 - -
0.3552 694 0.205 - -
0.3557 695 0.1163 - -
0.3562 696 0.1946 - -
0.3567 697 0.1677 - -
0.3572 698 0.1721 - -
0.3577 699 0.2013 - -
0.3582 700 0.1442 0.8623 0.9306
0.3588 701 0.1081 - -
0.3593 702 0.0767 - -
0.3598 703 0.1696 - -
0.3603 704 0.1315 - -
0.3608 705 0.0592 - -
0.3613 706 0.1208 - -
0.3618 707 0.2346 - -
0.3623 708 0.192 - -
0.3628 709 0.1038 - -
0.3634 710 0.1107 - -
0.3639 711 0.0839 - -
0.3644 712 0.1804 - -
0.3649 713 0.1581 - -
0.3654 714 0.1469 - -
0.3659 715 0.1384 - -
0.3664 716 0.091 - -
0.3669 717 0.0733 - -
0.3675 718 0.2287 - -
0.3680 719 0.1345 - -
0.3685 720 0.3101 - -
0.3690 721 0.2625 - -
0.3695 722 0.259 - -
0.3700 723 0.1677 - -
0.3705 724 0.1824 - -
0.3710 725 0.2012 - -
0.3715 726 0.0987 - -
0.3721 727 0.0913 - -
0.3726 728 0.112 - -
0.3731 729 0.077 - -
0.3736 730 0.0999 - -
0.3741 731 0.1413 - -
0.3746 732 0.1158 - -
0.3751 733 0.1236 - -
0.3756 734 0.1163 - -
0.3762 735 0.1935 - -
0.3767 736 0.1443 - -
0.3772 737 0.1393 - -
0.3777 738 0.1496 - -
0.3782 739 0.1925 - -
0.3787 740 0.2229 - -
0.3792 741 0.1062 - -
0.3797 742 0.1529 - -
0.3802 743 0.1309 - -
0.3808 744 0.1259 - -
0.3813 745 0.1203 - -
0.3818 746 0.1636 - -
0.3823 747 0.3181 - -
0.3828 748 0.2253 - -
0.3833 749 0.1559 - -
0.3838 750 0.1206 - -
0.3843 751 0.099 - -
0.3849 752 0.0946 - -
0.3854 753 0.0961 - -
0.3859 754 0.1094 - -
0.3864 755 0.2492 - -
0.3869 756 0.2146 - -
0.3874 757 0.2002 - -
0.3879 758 0.2457 - -
0.3884 759 0.1416 - -
0.3889 760 0.1471 - -
0.3895 761 0.1082 - -
0.3900 762 0.1395 - -
0.3905 763 0.1187 - -
0.3910 764 0.0906 - -
0.3915 765 0.135 - -
0.3920 766 0.1329 - -
0.3925 767 0.1231 - -
0.3930 768 0.1393 - -
0.3936 769 0.2371 - -
0.3941 770 0.2398 - -
0.3946 771 0.1726 - -
0.3951 772 0.2065 - -
0.3956 773 0.1182 - -
0.3961 774 0.1773 - -
0.3966 775 0.1934 - -
0.3971 776 0.156 - -
0.3976 777 0.1043 - -
0.3982 778 0.111 - -
0.3987 779 0.0814 - -
0.3992 780 0.1229 - -
0.3997 781 0.1041 - -
0.4002 782 0.1793 - -
0.4007 783 0.1291 - -
0.4012 784 0.0874 - -
0.4017 785 0.0509 - -
0.4023 786 0.0774 - -
0.4028 787 0.1298 - -
0.4033 788 0.13 - -
0.4038 789 0.1041 - -
0.4043 790 0.0824 - -
0.4048 791 0.1459 - -
0.4053 792 0.1798 - -
0.4058 793 0.1415 - -
0.4063 794 0.0973 - -
0.4069 795 0.1115 - -
0.4074 796 0.0684 - -
0.4079 797 0.0988 - -
0.4084 798 0.1505 - -
0.4089 799 0.1577 - -
0.4094 800 0.2474 0.8913 0.9334
0.4099 801 0.3658 - -
0.4104 802 0.2929 - -
0.4110 803 0.246 - -
0.4115 804 0.1213 - -
0.4120 805 0.0929 - -
0.4125 806 0.1291 - -
0.4130 807 0.1502 - -
0.4135 808 0.1575 - -
0.4140 809 0.1395 - -
0.4145 810 0.1421 - -
0.4150 811 0.1795 - -
0.4156 812 0.1592 - -
0.4161 813 0.1621 - -
0.4166 814 0.1877 - -
0.4171 815 0.1868 - -
0.4176 816 0.1564 - -
0.4181 817 0.1047 - -
0.4186 818 0.0857 - -
0.4191 819 0.1159 - -
0.4197 820 0.1519 - -
0.4202 821 0.1976 - -
0.4207 822 0.2072 - -
0.4212 823 0.1719 - -
0.4217 824 0.1046 - -
0.4222 825 0.0568 - -
0.4227 826 0.065 - -
0.4232 827 0.1222 - -
0.4237 828 0.0739 - -
0.4243 829 0.0872 - -
0.4248 830 0.1615 - -
0.4253 831 0.198 - -
0.4258 832 0.1537 - -
0.4263 833 0.1463 - -
0.4268 834 0.1315 - -
0.4273 835 0.1306 - -
0.4278 836 0.1842 - -
0.4284 837 0.1698 - -
0.4289 838 0.1345 - -
0.4294 839 0.0589 - -
0.4299 840 0.0509 - -
0.4304 841 0.1266 - -
0.4309 842 0.2453 - -
0.4314 843 0.162 - -
0.4319 844 0.0821 - -
0.4324 845 0.1036 - -
0.4330 846 0.1698 - -
0.4335 847 0.2177 - -
0.4340 848 0.188 - -
0.4345 849 0.2167 - -
0.4350 850 0.2258 - -
0.4355 851 0.1215 - -
0.4360 852 0.0806 - -
0.4365 853 0.1588 - -
0.4371 854 0.1657 - -
0.4376 855 0.1623 - -
0.4381 856 0.1522 - -
0.4386 857 0.1239 - -
0.4391 858 0.2135 - -
0.4396 859 0.1132 - -
0.4401 860 0.1357 - -
0.4406 861 0.1371 - -
0.4411 862 0.0788 - -
0.4417 863 0.2182 - -
0.4422 864 0.247 - -
0.4427 865 0.3319 - -
0.4432 866 0.2565 - -
0.4437 867 0.2339 - -
0.4442 868 0.1491 - -
0.4447 869 0.1654 - -
0.4452 870 0.1651 - -
0.4458 871 0.133 - -
0.4463 872 0.0846 - -
0.4468 873 0.0569 - -
0.4473 874 0.205 - -
0.4478 875 0.1148 - -
0.4483 876 0.1082 - -
0.4488 877 0.2288 - -
0.4493 878 0.1601 - -
0.4498 879 0.1174 - -
0.4504 880 0.0646 - -
0.4509 881 0.0693 - -
0.4514 882 0.1002 - -
0.4519 883 0.1059 - -
0.4524 884 0.1174 - -
0.4529 885 0.0908 - -
0.4534 886 0.0897 - -
0.4539 887 0.3261 - -
0.4545 888 0.3079 - -
0.4550 889 0.4066 - -
0.4555 890 0.236 - -
0.4560 891 0.3301 - -
0.4565 892 0.2789 - -
0.4570 893 0.2218 - -
0.4575 894 0.1181 - -
0.4580 895 0.2813 - -
0.4585 896 0.192 - -
0.4591 897 0.1511 - -
0.4596 898 0.1222 - -
0.4601 899 0.2559 - -
0.4606 900 0.2179 0.8456 0.9239
0.4611 901 0.2879 - -
0.4616 902 0.1087 - -
0.4621 903 0.1736 - -
0.4626 904 0.1514 - -
0.4632 905 0.1984 - -
0.4637 906 0.2888 - -
0.4642 907 0.1639 - -
0.4647 908 0.1533 - -
0.4652 909 0.1575 - -
0.4657 910 0.1716 - -
0.4662 911 0.2199 - -
0.4667 912 0.2275 - -
0.4672 913 0.2263 - -
0.4678 914 0.2248 - -
0.4683 915 0.1751 - -
0.4688 916 0.3353 - -
0.4693 917 0.2627 - -
0.4698 918 0.1676 - -
0.4703 919 0.1338 - -
0.4708 920 0.0972 - -
0.4713 921 0.2103 - -
0.4719 922 0.3038 - -
0.4724 923 0.2816 - -
0.4729 924 0.1309 - -
0.4734 925 0.1162 - -
0.4739 926 0.1112 - -
0.4744 927 0.2015 - -
0.4749 928 0.2021 - -
0.4754 929 0.2221 - -
0.4759 930 0.203 - -
0.4765 931 0.1194 - -
0.4770 932 0.1535 - -
0.4775 933 0.1551 - -
0.4780 934 0.2792 - -
0.4785 935 0.2597 - -
0.4790 936 0.151 - -
0.4795 937 0.2264 - -
0.4800 938 0.1509 - -
0.4806 939 0.1551 - -
0.4811 940 0.1657 - -
0.4816 941 0.1051 - -
0.4821 942 0.1137 - -
0.4826 943 0.0957 - -
0.4831 944 0.0603 - -
0.4836 945 0.0854 - -
0.4841 946 0.1433 - -
0.4846 947 0.233 - -
0.4852 948 0.1573 - -
0.4857 949 0.1465 - -
0.4862 950 0.221 - -
0.4867 951 0.3344 - -
0.4872 952 0.1623 - -
0.4877 953 0.1785 - -
0.4882 954 0.1585 - -
0.4887 955 0.1802 - -
0.4893 956 0.1554 - -
0.4898 957 0.2281 - -
0.4903 958 0.1498 - -
0.4908 959 0.1547 - -
0.4913 960 0.1319 - -
0.4918 961 0.0945 - -
0.4923 962 0.086 - -
0.4928 963 0.1023 - -
0.4933 964 0.0859 - -
0.4939 965 0.1245 - -
0.4944 966 0.2234 - -
0.4949 967 0.2334 - -
0.4954 968 0.2788 - -
0.4959 969 0.192 - -
0.4964 970 0.1285 - -
0.4969 971 0.0865 - -
0.4974 972 0.089 - -
0.4980 973 0.1213 - -
0.4985 974 0.1088 - -
0.4990 975 0.0564 - -
0.4995 976 0.0841 - -
0.5 977 0.1902 - -
0.5005 978 0.2538 - -
0.5010 979 0.2385 - -
0.5015 980 0.2652 - -
0.5020 981 0.1625 - -
0.5026 982 0.1364 - -
0.5031 983 0.1422 - -
0.5036 984 0.1529 - -
0.5041 985 0.1085 - -
0.5046 986 0.1494 - -
0.5051 987 0.1333 - -
0.5056 988 0.2365 - -
0.5061 989 0.2787 - -
0.5067 990 0.1841 - -
0.5072 991 0.1548 - -
0.5077 992 0.1494 - -
0.5082 993 0.1816 - -
0.5087 994 0.1641 - -
0.5092 995 0.1836 - -
0.5097 996 0.2396 - -
0.5102 997 0.2292 - -
0.5107 998 0.1604 - -
0.5113 999 0.1498 - -
0.5118 1000 0.1384 1.0291 0.9411
0.5123 1001 0.1992 - -
0.5128 1002 0.1361 - -
0.5133 1003 0.1393 - -
0.5138 1004 0.277 - -
0.5143 1005 0.1861 - -
0.5148 1006 0.1392 - -
0.5154 1007 0.1052 - -
0.5159 1008 0.1087 - -
0.5164 1009 0.1393 - -
0.5169 1010 0.2721 - -
0.5174 1011 0.2208 - -
0.5179 1012 0.3358 - -
0.5184 1013 0.3529 - -
0.5189 1014 0.2818 - -
0.5194 1015 0.1891 - -
0.5200 1016 0.2494 - -
0.5205 1017 0.1279 - -
0.5210 1018 0.1816 - -
0.5215 1019 0.2082 - -
0.5220 1020 0.1992 - -
0.5225 1021 0.1557 - -
0.5230 1022 0.1652 - -
0.5235 1023 0.1922 - -
0.5241 1024 0.1568 - -
0.5246 1025 0.1523 - -
0.5251 1026 0.0997 - -
0.5256 1027 0.1266 - -
0.5261 1028 0.1444 - -
0.5266 1029 0.1271 - -
0.5271 1030 0.1275 - -
0.5276 1031 0.1042 - -
0.5281 1032 0.2974 - -
0.5287 1033 0.2318 - -
0.5292 1034 0.219 - -
0.5297 1035 0.2216 - -
0.5302 1036 0.2356 - -
0.5307 1037 0.1216 - -
0.5312 1038 0.1155 - -
0.5317 1039 0.116 - -
0.5322 1040 0.136 - -
0.5328 1041 0.1097 - -
0.5333 1042 0.1302 - -
0.5338 1043 0.104 - -
0.5343 1044 0.2442 - -
0.5348 1045 0.3245 - -
0.5353 1046 0.2715 - -
0.5358 1047 0.2266 - -
0.5363 1048 0.1993 - -
0.5368 1049 0.389 - -
0.5374 1050 0.3285 - -
0.5379 1051 0.1983 - -
0.5384 1052 0.2304 - -
0.5389 1053 0.1461 - -
0.5394 1054 0.2071 - -
0.5399 1055 0.1981 - -
0.5404 1056 0.1617 - -
0.5409 1057 0.1207 - -
0.5415 1058 0.2387 - -
0.5420 1059 0.1873 - -
0.5425 1060 0.15 - -
0.5430 1061 0.2065 - -
0.5435 1062 0.1288 - -
0.5440 1063 0.2415 - -
0.5445 1064 0.2859 - -
0.5450 1065 0.2759 - -
0.5455 1066 0.1774 - -
0.5461 1067 0.1699 - -
0.5466 1068 0.1672 - -
0.5471 1069 0.11 - -
0.5476 1070 0.1399 - -
0.5481 1071 0.1269 - -
0.5486 1072 0.1486 - -
0.5491 1073 0.1808 - -
0.5496 1074 0.2333 - -
0.5502 1075 0.2294 - -
0.5507 1076 0.2353 - -
0.5512 1077 0.2048 - -
0.5517 1078 0.1881 - -
0.5522 1079 0.3176 - -
0.5527 1080 0.2117 - -
0.5532 1081 0.1842 - -
0.5537 1082 0.1731 - -
0.5542 1083 0.1705 - -
0.5548 1084 0.1573 - -
0.5553 1085 0.2202 - -
0.5558 1086 0.1947 - -
0.5563 1087 0.1856 - -
0.5568 1088 0.1789 - -
0.5573 1089 0.1649 - -
0.5578 1090 0.149 - -
0.5583 1091 0.0808 - -
0.5589 1092 0.2569 - -
0.5594 1093 0.2677 - -
0.5599 1094 0.2107 - -
0.5604 1095 0.2321 - -
0.5609 1096 0.2247 - -
0.5614 1097 0.196 - -
0.5619 1098 0.2243 - -
0.5624 1099 0.1349 - -
0.5629 1100 0.1142 0.8562 0.946
0.5635 1101 0.1154 - -
0.5640 1102 0.131 - -
0.5645 1103 0.1558 - -
0.5650 1104 0.1561 - -
0.5655 1105 0.1499 - -
0.5660 1106 0.0855 - -
0.5665 1107 0.1234 - -
0.5670 1108 0.1204 - -
0.5676 1109 0.1553 - -
0.5681 1110 0.223 - -
0.5686 1111 0.2299 - -
0.5691 1112 0.255 - -
0.5696 1113 0.2056 - -
0.5701 1114 0.1523 - -
0.5706 1115 0.172 - -
0.5711 1116 0.1508 - -
0.5716 1117 0.1798 - -
0.5722 1118 0.1576 - -
0.5727 1119 0.1492 - -
0.5732 1120 0.0768 - -
0.5737 1121 0.1951 - -
0.5742 1122 0.2158 - -
0.5747 1123 0.1478 - -
0.5752 1124 0.2532 - -
0.5757 1125 0.1836 - -
0.5763 1126 0.1444 - -
0.5768 1127 0.1184 - -
0.5773 1128 0.1401 - -
0.5778 1129 0.1703 - -
0.5783 1130 0.1857 - -
0.5788 1131 0.228 - -
0.5793 1132 0.1959 - -
0.5798 1133 0.1765 - -
0.5803 1134 0.2443 - -
0.5809 1135 0.2171 - -
0.5814 1136 0.1295 - -
0.5819 1137 0.2785 - -
0.5824 1138 0.206 - -
0.5829 1139 0.209 - -
0.5834 1140 0.2066 - -
0.5839 1141 0.1312 - -
0.5844 1142 0.2223 - -
0.5850 1143 0.1394 - -
0.5855 1144 0.1158 - -
0.5860 1145 0.1691 - -
0.5865 1146 0.1066 - -
0.5870 1147 0.1556 - -
0.5875 1148 0.111 - -
0.5880 1149 0.1396 - -
0.5885 1150 0.1085 - -
0.5890 1151 0.1031 - -
0.5896 1152 0.1929 - -
0.5901 1153 0.1603 - -
0.5906 1154 0.1406 - -
0.5911 1155 0.1158 - -
0.5916 1156 0.099 - -
0.5921 1157 0.1206 - -
0.5926 1158 0.1012 - -
0.5931 1159 0.1086 - -
0.5937 1160 0.1664 - -
0.5942 1161 0.1599 - -
0.5947 1162 0.1043 - -
0.5952 1163 0.1218 - -
0.5957 1164 0.1374 - -
0.5962 1165 0.2229 - -
0.5967 1166 0.1296 - -
0.5972 1167 0.2131 - -
0.5977 1168 0.2384 - -
0.5983 1169 0.1702 - -
0.5988 1170 0.2961 - -
0.5993 1171 0.2253 - -
0.5998 1172 0.227 - -
0.6003 1173 0.1754 - -
0.6008 1174 0.213 - -
0.6013 1175 0.1376 - -
0.6018 1176 0.104 - -
0.6024 1177 0.092 - -
0.6029 1178 0.3563 - -
0.6034 1179 0.3275 - -
0.6039 1180 0.2145 - -
0.6044 1181 0.125 - -
0.6049 1182 0.2148 - -
0.6054 1183 0.1757 - -
0.6059 1184 0.1953 - -
0.6064 1185 0.1761 - -
0.6070 1186 0.2783 - -
0.6075 1187 0.1437 - -
0.6080 1188 0.153 - -
0.6085 1189 0.1636 - -
0.6090 1190 0.1582 - -
0.6095 1191 0.1718 - -
0.6100 1192 0.21 - -
0.6105 1193 0.1488 - -
0.6111 1194 0.1797 - -
0.6116 1195 0.1181 - -
0.6121 1196 0.0995 - -
0.6126 1197 0.0782 - -
0.6131 1198 0.2162 - -
0.6136 1199 0.1287 - -
0.6141 1200 0.2397 0.8919 0.9417
0.6146 1201 0.1714 - -
0.6151 1202 0.1367 - -
0.6157 1203 0.088 - -
0.6162 1204 0.0878 - -
0.6167 1205 0.2459 - -
0.6172 1206 0.3603 - -
0.6177 1207 0.4254 - -
0.6182 1208 0.3086 - -
0.6187 1209 0.2139 - -
0.6192 1210 0.2397 - -
0.6198 1211 0.2775 - -
0.6203 1212 0.227 - -
0.6208 1213 0.3257 - -
0.6213 1214 0.3003 - -
0.6218 1215 0.2884 - -
0.6223 1216 0.2774 - -
0.6228 1217 0.186 - -
0.6233 1218 0.1779 - -
0.6238 1219 0.1449 - -
0.6244 1220 0.1487 - -
0.6249 1221 0.1443 - -
0.6254 1222 0.1495 - -
0.6259 1223 0.1419 - -
0.6264 1224 0.1274 - -
0.6269 1225 0.1279 - -
0.6274 1226 0.1687 - -
0.6279 1227 0.1501 - -
0.6285 1228 0.2217 - -
0.6290 1229 0.0882 - -
0.6295 1230 0.1099 - -
0.6300 1231 0.1346 - -
0.6305 1232 0.1601 - -
0.6310 1233 0.1521 - -
0.6315 1234 0.1676 - -
0.6320 1235 0.1402 - -
0.6325 1236 0.171 - -
0.6331 1237 0.1263 - -
0.6336 1238 0.0966 - -
0.6341 1239 0.074 - -
0.6346 1240 0.1244 - -
0.6351 1241 0.2048 - -
0.6356 1242 0.1798 - -
0.6361 1243 0.1455 - -
0.6366 1244 0.1741 - -
0.6372 1245 0.121 - -
0.6377 1246 0.1885 - -
0.6382 1247 0.2382 - -
0.6387 1248 0.3496 - -
0.6392 1249 0.2415 - -
0.6397 1250 0.3394 - -
0.6402 1251 0.2355 - -
0.6407 1252 0.2637 - -
0.6412 1253 0.1075 - -
0.6418 1254 0.139 - -
0.6423 1255 0.179 - -
0.6428 1256 0.192 - -
0.6433 1257 0.2076 - -
0.6438 1258 0.1855 - -
0.6443 1259 0.1788 - -
0.6448 1260 0.1077 - -
0.6453 1261 0.1148 - -
0.6459 1262 0.1379 - -
0.6464 1263 0.0777 - -
0.6469 1264 0.0775 - -
0.6474 1265 0.0697 - -
0.6479 1266 0.1063 - -
0.6484 1267 0.1449 - -
0.6489 1268 0.125 - -
0.6494 1269 0.0831 - -
0.6499 1270 0.0689 - -
0.6505 1271 0.0886 - -
0.6510 1272 0.172 - -
0.6515 1273 0.1881 - -
0.6520 1274 0.1712 - -
0.6525 1275 0.1097 - -
0.6530 1276 0.0811 - -
0.6535 1277 0.1344 - -
0.6540 1278 0.0939 - -
0.6546 1279 0.114 - -
0.6551 1280 0.1289 - -
0.6556 1281 0.2418 - -
0.6561 1282 0.1735 - -
0.6566 1283 0.152 - -
0.6571 1284 0.1477 - -
0.6576 1285 0.277 - -
0.6581 1286 0.1857 - -
0.6586 1287 0.2902 - -
0.6592 1288 0.3308 - -
0.6597 1289 0.3731 - -
0.6602 1290 0.1999 - -
0.6607 1291 0.1524 - -
0.6612 1292 0.171 - -
0.6617 1293 0.1967 - -
0.6622 1294 0.1741 - -
0.6627 1295 0.4263 - -
0.6633 1296 0.3758 - -
0.6638 1297 0.2932 - -
0.6643 1298 0.2372 - -
0.6648 1299 0.2378 - -
0.6653 1300 0.1748 0.9384 0.95
0.6658 1301 0.1687 - -
0.6663 1302 0.1226 - -
0.6668 1303 0.0726 - -
0.6673 1304 0.0676 - -
0.6679 1305 0.0745 - -
0.6684 1306 0.0989 - -
0.6689 1307 0.1513 - -
0.6694 1308 0.105 - -
0.6699 1309 0.0861 - -
0.6704 1310 0.206 - -
0.6709 1311 0.2329 - -
0.6714 1312 0.2457 - -
0.6720 1313 0.2435 - -
0.6725 1314 0.2518 - -
0.6730 1315 0.1494 - -
0.6735 1316 0.1366 - -
0.6740 1317 0.1331 - -
0.6745 1318 0.0924 - -
0.6750 1319 0.1809 - -
0.6755 1320 0.2308 - -
0.6760 1321 0.143 - -
0.6766 1322 0.1312 - -
0.6771 1323 0.155 - -
0.6776 1324 0.1618 - -
0.6781 1325 0.1136 - -
0.6786 1326 0.2256 - -
0.6791 1327 0.2588 - -
0.6796 1328 0.2683 - -
0.6801 1329 0.2722 - -
0.6807 1330 0.1893 - -
0.6812 1331 0.1982 - -
0.6817 1332 0.1641 - -
0.6822 1333 0.128 - -
0.6827 1334 0.1075 - -
0.6832 1335 0.1897 - -
0.6837 1336 0.2387 - -
0.6842 1337 0.2168 - -
0.6847 1338 0.1373 - -
0.6853 1339 0.1824 - -
0.6858 1340 0.1392 - -
0.6863 1341 0.1425 - -
0.6868 1342 0.1798 - -
0.6873 1343 0.2477 - -
0.6878 1344 0.1615 - -
0.6883 1345 0.301 - -
0.6888 1346 0.2127 - -
0.6894 1347 0.1629 - -
0.6899 1348 0.1441 - -
0.6904 1349 0.1267 - -
0.6909 1350 0.1648 - -
0.6914 1351 0.2091 - -
0.6919 1352 0.1479 - -
0.6924 1353 0.1521 - -
0.6929 1354 0.138 - -
0.6934 1355 0.2449 - -
0.6940 1356 0.2294 - -
0.6945 1357 0.2161 - -
0.6950 1358 0.2344 - -
0.6955 1359 0.2294 - -
0.6960 1360 0.1281 - -
0.6965 1361 0.1378 - -
0.6970 1362 0.1468 - -
0.6975 1363 0.1331 - -
0.6981 1364 0.1237 - -
0.6986 1365 0.1272 - -
0.6991 1366 0.1021 - -
0.6996 1367 0.1575 - -
0.7001 1368 0.1118 - -
0.7006 1369 0.2497 - -
0.7011 1370 0.1343 - -
0.7016 1371 0.1654 - -
0.7021 1372 0.213 - -
0.7027 1373 0.2429 - -
0.7032 1374 0.256 - -
0.7037 1375 0.2483 - -
0.7042 1376 0.1414 - -
0.7047 1377 0.1145 - -
0.7052 1378 0.1057 - -
0.7057 1379 0.1681 - -
0.7062 1380 0.1024 - -
0.7068 1381 0.1126 - -
0.7073 1382 0.0643 - -
0.7078 1383 0.1568 - -
0.7083 1384 0.1244 - -
0.7088 1385 0.2137 - -
0.7093 1386 0.204 - -
0.7098 1387 0.1821 - -
0.7103 1388 0.3117 - -
0.7108 1389 0.3247 - -
0.7114 1390 0.1847 - -
0.7119 1391 0.1467 - -
0.7124 1392 0.1288 - -
0.7129 1393 0.0978 - -
0.7134 1394 0.1062 - -
0.7139 1395 0.1502 - -
0.7144 1396 0.1211 - -
0.7149 1397 0.1493 - -
0.7155 1398 0.1302 - -
0.7160 1399 0.0987 - -
0.7165 1400 0.1651 0.9160 0.9431
0.7170 1401 0.1728 - -
0.7175 1402 0.1256 - -
0.7180 1403 0.1498 - -
0.7185 1404 0.2098 - -
0.7190 1405 0.1515 - -
0.7195 1406 0.261 - -
0.7201 1407 0.1713 - -
0.7206 1408 0.144 - -
0.7211 1409 0.1453 - -
0.7216 1410 0.1835 - -
0.7221 1411 0.203 - -
0.7226 1412 0.1583 - -
0.7231 1413 0.2432 - -
0.7236 1414 0.1884 - -
0.7242 1415 0.2799 - -
0.7247 1416 0.2761 - -
0.7252 1417 0.2778 - -
0.7257 1418 0.2611 - -
0.7262 1419 0.2139 - -
0.7267 1420 0.1985 - -
0.7272 1421 0.1684 - -
0.7277 1422 0.2776 - -
0.7282 1423 0.2419 - -
0.7288 1424 0.288 - -
0.7293 1425 0.2441 - -
0.7298 1426 0.1746 - -
0.7303 1427 0.198 - -
0.7308 1428 0.242 - -
0.7313 1429 0.1496 - -
0.7318 1430 0.1395 - -
0.7323 1431 0.1684 - -
0.7329 1432 0.1434 - -
0.7334 1433 0.2848 - -
0.7339 1434 0.2669 - -
0.7344 1435 0.2773 - -
0.7349 1436 0.2792 - -
0.7354 1437 0.3026 - -
0.7359 1438 0.2663 - -
0.7364 1439 0.2701 - -
0.7369 1440 0.1858 - -
0.7375 1441 0.1162 - -
0.7380 1442 0.1988 - -
0.7385 1443 0.2179 - -
0.7390 1444 0.1826 - -
0.7395 1445 0.1403 - -
0.7400 1446 0.1355 - -
0.7405 1447 0.1481 - -
0.7410 1448 0.2838 - -
0.7416 1449 0.222 - -
0.7421 1450 0.2777 - -
0.7426 1451 0.2185 - -
0.7431 1452 0.1763 - -
0.7436 1453 0.2524 - -
0.7441 1454 0.1625 - -
0.7446 1455 0.1506 - -
0.7451 1456 0.1469 - -
0.7456 1457 0.2023 - -
0.7462 1458 0.2784 - -
0.7467 1459 0.3714 - -
0.7472 1460 0.2349 - -
0.7477 1461 0.1571 - -
0.7482 1462 0.1476 - -
0.7487 1463 0.15 - -
0.7492 1464 0.2423 - -
0.7497 1465 0.28 - -
0.7503 1466 0.2623 - -
0.7508 1467 0.2755 - -
0.7513 1468 0.3387 - -
0.7518 1469 0.277 - -
0.7523 1470 0.2891 - -
0.7528 1471 0.2561 - -
0.7533 1472 0.183 - -
0.7538 1473 0.2124 - -
0.7544 1474 0.324 - -
0.7549 1475 0.226 - -
0.7554 1476 0.3019 - -
0.7559 1477 0.19 - -
0.7564 1478 0.176 - -
0.7569 1479 0.1554 - -
0.7574 1480 0.1085 - -
0.7579 1481 0.1455 - -
0.7584 1482 0.2385 - -
0.7590 1483 0.2487 - -
0.7595 1484 0.2457 - -
0.7600 1485 0.2513 - -
0.7605 1486 0.2595 - -
0.7610 1487 0.2852 - -
0.7615 1488 0.2745 - -
0.7620 1489 0.2055 - -
0.7625 1490 0.2506 - -
0.7631 1491 0.1605 - -
0.7636 1492 0.1309 - -
0.7641 1493 0.1512 - -
0.7646 1494 0.2551 - -
0.7651 1495 0.2298 - -
0.7656 1496 0.2101 - -
0.7661 1497 0.2243 - -
0.7666 1498 0.157 - -
0.7671 1499 0.1962 - -
0.7677 1500 0.149 0.8459 0.9388
0.7682 1501 0.1411 - -
0.7687 1502 0.2165 - -
0.7692 1503 0.1634 - -
0.7697 1504 0.1771 - -
0.7702 1505 0.2775 - -
0.7707 1506 0.3142 - -
0.7712 1507 0.253 - -
0.7718 1508 0.2443 - -
0.7723 1509 0.3289 - -
0.7728 1510 0.3004 - -
0.7733 1511 0.3158 - -
0.7738 1512 0.2389 - -
0.7743 1513 0.161 - -
0.7748 1514 0.1752 - -
0.7753 1515 0.1277 - -
0.7758 1516 0.1662 - -
0.7764 1517 0.2383 - -
0.7769 1518 0.1823 - -
0.7774 1519 0.3215 - -
0.7779 1520 0.2643 - -
0.7784 1521 0.2251 - -
0.7789 1522 0.258 - -
0.7794 1523 0.1986 - -
0.7799 1524 0.1937 - -
0.7805 1525 0.2017 - -
0.7810 1526 0.2152 - -
0.7815 1527 0.205 - -
0.7820 1528 0.2045 - -
0.7825 1529 0.1897 - -
0.7830 1530 0.1718 - -
0.7835 1531 0.1158 - -
0.7840 1532 0.1807 - -
0.7845 1533 0.2381 - -
0.7851 1534 0.3434 - -
0.7856 1535 0.3852 - -
0.7861 1536 0.289 - -
0.7866 1537 0.3242 - -
0.7871 1538 0.2734 - -
0.7876 1539 0.2034 - -
0.7881 1540 0.2312 - -
0.7886 1541 0.2406 - -
0.7892 1542 0.2152 - -
0.7897 1543 0.1394 - -
0.7902 1544 0.1243 - -
0.7907 1545 0.2377 - -
0.7912 1546 0.1362 - -
0.7917 1547 0.1219 - -
0.7922 1548 0.2065 - -
0.7927 1549 0.2249 - -
0.7932 1550 0.2644 - -
0.7938 1551 0.2899 - -
0.7943 1552 0.2978 - -
0.7948 1553 0.2584 - -
0.7953 1554 0.4284 - -
0.7958 1555 0.3485 - -
0.7963 1556 0.3921 - -
0.7968 1557 0.3097 - -
0.7973 1558 0.2372 - -
0.7979 1559 0.2799 - -
0.7984 1560 0.1728 - -
0.7989 1561 0.1616 - -
0.7994 1562 0.0986 - -
0.7999 1563 0.1344 - -
0.8004 1564 0.0714 - -
0.8009 1565 0.1967 - -
0.8014 1566 0.2853 - -
0.8019 1567 0.3007 - -
0.8025 1568 0.3036 - -
0.8030 1569 0.315 - -
0.8035 1570 0.2196 - -
0.8040 1571 0.183 - -
0.8045 1572 0.1717 - -
0.8050 1573 0.2454 - -
0.8055 1574 0.1936 - -
0.8060 1575 0.2392 - -
0.8066 1576 0.1998 - -
0.8071 1577 0.2382 - -
0.8076 1578 0.1752 - -
0.8081 1579 0.2791 - -
0.8086 1580 0.1962 - -
0.8091 1581 0.2455 - -
0.8096 1582 0.2088 - -
0.8101 1583 0.2779 - -
0.8106 1584 0.2799 - -
0.8112 1585 0.2245 - -
0.8117 1586 0.3577 - -
0.8122 1587 0.3454 - -
0.8127 1588 0.2465 - -
0.8132 1589 0.219 - -
0.8137 1590 0.2016 - -
0.8142 1591 0.2132 - -
0.8147 1592 0.293 - -
0.8153 1593 0.3512 - -
0.8158 1594 0.299 - -
0.8163 1595 0.2666 - -
0.8168 1596 0.2419 - -
0.8173 1597 0.1873 - -
0.8178 1598 0.1393 - -
0.8183 1599 0.1834 - -
0.8188 1600 0.2424 0.7951 0.9384
0.8193 1601 0.3308 - -
0.8199 1602 0.389 - -
0.8204 1603 0.372 - -
0.8209 1604 0.4278 - -
0.8214 1605 0.32 - -
0.8219 1606 0.4131 - -
0.8224 1607 0.4209 - -
0.8229 1608 0.3434 - -
0.8234 1609 0.3183 - -
0.8240 1610 0.2844 - -
0.8245 1611 0.3242 - -
0.8250 1612 0.2182 - -
0.8255 1613 0.1782 - -
0.8260 1614 0.2351 - -
0.8265 1615 0.164 - -
0.8270 1616 0.2148 - -
0.8275 1617 0.1739 - -
0.8280 1618 0.2578 - -
0.8286 1619 0.2316 - -
0.8291 1620 0.1719 - -
0.8296 1621 0.1277 - -
0.8301 1622 0.16 - -
0.8306 1623 0.1504 - -
0.8311 1624 0.1563 - -
0.8316 1625 0.1938 - -
0.8321 1626 0.1918 - -
0.8327 1627 0.2196 - -
0.8332 1628 0.1967 - -
0.8337 1629 0.2586 - -
0.8342 1630 0.1991 - -
0.8347 1631 0.2869 - -
0.8352 1632 0.4497 - -
0.8357 1633 0.3518 - -
0.8362 1634 0.3113 - -
0.8367 1635 0.2545 - -
0.8373 1636 0.3275 - -
0.8378 1637 0.2098 - -
0.8383 1638 0.2076 - -
0.8388 1639 0.218 - -
0.8393 1640 0.2361 - -
0.8398 1641 0.2324 - -
0.8403 1642 0.2245 - -
0.8408 1643 0.2767 - -
0.8414 1644 0.2204 - -
0.8419 1645 0.2158 - -
0.8424 1646 0.1711 - -
0.8429 1647 0.2333 - -
0.8434 1648 0.2089 - -
0.8439 1649 0.2114 - -
0.8444 1650 0.2712 - -
0.8449 1651 0.3705 - -
0.8454 1652 0.3409 - -
0.8460 1653 0.3343 - -
0.8465 1654 0.2467 - -
0.8470 1655 0.2415 - -
0.8475 1656 0.2174 - -
0.8480 1657 0.222 - -
0.8485 1658 0.1879 - -
0.8490 1659 0.2461 - -
0.8495 1660 0.2413 - -
0.8501 1661 0.1931 - -
0.8506 1662 0.2744 - -
0.8511 1663 0.3202 - -
0.8516 1664 0.3382 - -
0.8521 1665 0.2325 - -
0.8526 1666 0.2124 - -
0.8531 1667 0.2321 - -
0.8536 1668 0.1406 - -
0.8541 1669 0.1909 - -
0.8547 1670 0.162 - -
0.8552 1671 0.153 - -
0.8557 1672 0.1104 - -
0.8562 1673 0.1914 - -
0.8567 1674 0.1988 - -
0.8572 1675 0.2261 - -
0.8577 1676 0.1765 - -
0.8582 1677 0.1269 - -
0.8588 1678 0.1017 - -
0.8593 1679 0.2056 - -
0.8598 1680 0.1059 - -
0.8603 1681 0.1901 - -
0.8608 1682 0.2596 - -
0.8613 1683 0.3579 - -
0.8618 1684 0.3703 - -
0.8623 1685 0.3352 - -
0.8628 1686 0.3461 - -
0.8634 1687 0.391 - -
0.8639 1688 0.2818 - -
0.8644 1689 0.339 - -
0.8649 1690 0.3048 - -
0.8654 1691 0.3521 - -
0.8659 1692 0.3335 - -
0.8664 1693 0.2935 - -
0.8669 1694 0.2318 - -
0.8675 1695 0.3297 - -
0.8680 1696 0.2218 - -
0.8685 1697 0.2533 - -
0.8690 1698 0.2637 - -
0.8695 1699 0.2106 - -
0.8700 1700 0.2082 0.7336 0.9439
0.8705 1701 0.2165 - -
0.8710 1702 0.1938 - -
0.8715 1703 0.2059 - -
0.8721 1704 0.2639 - -
0.8726 1705 0.2104 - -
0.8731 1706 0.2204 - -
0.8736 1707 0.3166 - -
0.8741 1708 0.3073 - -
0.8746 1709 0.2907 - -
0.8751 1710 0.2448 - -
0.8756 1711 0.2335 - -
0.8762 1712 0.2861 - -
0.8767 1713 0.3016 - -
0.8772 1714 0.3313 - -
0.8777 1715 0.4154 - -
0.8782 1716 0.5309 - -
0.8787 1717 0.4596 - -
0.8792 1718 0.5752 - -
0.8797 1719 0.4659 - -
0.8802 1720 0.4636 - -
0.8808 1721 0.4933 - -
0.8813 1722 0.4949 - -
0.8818 1723 0.4512 - -
0.8823 1724 0.3858 - -
0.8828 1725 0.3943 - -
0.8833 1726 0.3733 - -
0.8838 1727 0.3156 - -
0.8843 1728 0.3272 - -
0.8849 1729 0.2644 - -
0.8854 1730 0.3572 - -
0.8859 1731 0.2716 - -
0.8864 1732 0.3054 - -
0.8869 1733 0.3884 - -
0.8874 1734 0.3512 - -
0.8879 1735 0.2992 - -
0.8884 1736 0.272 - -
0.8889 1737 0.293 - -
0.8895 1738 0.2506 - -
0.8900 1739 0.3214 - -
0.8905 1740 0.3026 - -
0.8910 1741 0.3495 - -
0.8915 1742 0.3697 - -
0.8920 1743 0.2535 - -
0.8925 1744 0.2417 - -
0.8930 1745 0.2419 - -
0.8936 1746 0.2106 - -
0.8941 1747 0.209 - -
0.8946 1748 0.2587 - -
0.8951 1749 0.19 - -
0.8956 1750 0.2744 - -
0.8961 1751 0.3315 - -
0.8966 1752 0.3192 - -
0.8971 1753 0.44 - -
0.8976 1754 0.3511 - -
0.8982 1755 0.4535 - -
0.8987 1756 0.4044 - -
0.8992 1757 0.3398 - -
0.8997 1758 0.3599 - -
0.9002 1759 0.3552 - -
0.9007 1760 0.3493 - -
0.9012 1761 0.4215 - -
0.9017 1762 0.3116 - -
0.9023 1763 0.3451 - -
0.9028 1764 0.2985 - -
0.9033 1765 0.3452 - -
0.9038 1766 0.2489 - -
0.9043 1767 0.2266 - -
0.9048 1768 0.2906 - -
0.9053 1769 0.3229 - -
0.9058 1770 0.3264 - -
0.9063 1771 0.326 - -
0.9069 1772 0.4848 - -
0.9074 1773 0.347 - -
0.9079 1774 0.2467 - -
0.9084 1775 0.2548 - -
0.9089 1776 0.4412 - -
0.9094 1777 0.3089 - -
0.9099 1778 0.4491 - -
0.9104 1779 0.4089 - -
0.9110 1780 0.396 - -
0.9115 1781 0.4404 - -
0.9120 1782 0.4197 - -
0.9125 1783 0.2947 - -
0.9130 1784 0.2952 - -
0.9135 1785 0.2941 - -
0.9140 1786 0.3605 - -
0.9145 1787 0.3431 - -
0.9150 1788 0.2934 - -
0.9156 1789 0.3605 - -
0.9161 1790 0.3521 - -
0.9166 1791 0.3997 - -
0.9171 1792 0.5006 - -
0.9176 1793 0.354 - -
0.9181 1794 0.388 - -
0.9186 1795 0.3895 - -
0.9191 1796 0.4333 - -
0.9197 1797 0.4895 - -
0.9202 1798 0.4691 - -
0.9207 1799 0.4145 - -
0.9212 1800 0.3753 0.6788 0.9502
0.9217 1801 0.4704 - -
0.9222 1802 0.441 - -
0.9227 1803 0.3925 - -
0.9232 1804 0.3288 - -
0.9237 1805 0.346 - -
0.9243 1806 0.4326 - -
0.9248 1807 0.4024 - -
0.9253 1808 0.6031 - -
0.9258 1809 0.6031 - -
0.9263 1810 0.5265 - -
0.9268 1811 0.428 - -
0.9273 1812 0.4373 - -
0.9278 1813 0.3541 - -
0.9284 1814 0.3621 - -
0.9289 1815 0.365 - -
0.9294 1816 0.4398 - -
0.9299 1817 0.398 - -
0.9304 1818 0.4375 - -
0.9309 1819 0.3815 - -
0.9314 1820 0.4396 - -
0.9319 1821 0.3871 - -
0.9324 1822 0.4421 - -
0.9330 1823 0.3979 - -
0.9335 1824 0.3619 - -
0.9340 1825 0.4688 - -
0.9345 1826 0.3951 - -
0.9350 1827 0.3807 - -
0.9355 1828 0.3978 - -
0.9360 1829 0.3519 - -
0.9365 1830 0.4019 - -
0.9371 1831 0.3853 - -
0.9376 1832 0.4026 - -
0.9381 1833 0.4212 - -
0.9386 1834 0.5422 - -
0.9391 1835 0.4808 - -
0.9396 1836 0.5497 - -
0.9401 1837 0.5487 - -
0.9406 1838 0.4814 - -
0.9411 1839 0.497 - -
0.9417 1840 0.4491 - -
0.9422 1841 0.4983 - -
0.9427 1842 0.4855 - -
0.9432 1843 0.4256 - -
0.9437 1844 0.3845 - -
0.9442 1845 0.3885 - -
0.9447 1846 0.429 - -
0.9452 1847 0.5845 - -
0.9458 1848 0.4565 - -
0.9463 1849 0.4371 - -
0.9468 1850 0.5884 - -
0.9473 1851 0.4054 - -
0.9478 1852 0.5583 - -
0.9483 1853 0.4478 - -
0.9488 1854 0.4341 - -
0.9493 1855 0.4308 - -
0.9498 1856 0.503 - -
0.9504 1857 0.4396 - -
0.9509 1858 0.5434 - -
0.9514 1859 0.4144 - -
0.9519 1860 0.4432 - -
0.9524 1861 0.3656 - -
0.9529 1862 0.3972 - -
0.9534 1863 0.4992 - -
0.9539 1864 0.3215 - -
0.9545 1865 0.3741 - -
0.9550 1866 0.4548 - -
0.9555 1867 0.5291 - -
0.9560 1868 0.4826 - -
0.9565 1869 0.5447 - -
0.9570 1870 0.6471 - -
0.9575 1871 0.5302 - -
0.9580 1872 0.5803 - -
0.9585 1873 0.6097 - -
0.9591 1874 0.6494 - -
0.9596 1875 0.5735 - -
0.9601 1876 0.4434 - -
0.9606 1877 0.4713 - -
0.9611 1878 0.496 - -
0.9616 1879 0.4067 - -
0.9621 1880 0.5666 - -
0.9626 1881 0.46 - -
0.9632 1882 0.4719 - -
0.9637 1883 0.5055 - -
0.9642 1884 0.5013 - -
0.9647 1885 0.5041 - -
0.9652 1886 0.444 - -
0.9657 1887 0.5036 - -
0.9662 1888 0.4842 - -
0.9667 1889 0.4947 - -
0.9672 1890 0.5691 - -
0.9678 1891 0.6534 - -
0.9683 1892 0.6255 - -
0.9688 1893 0.5947 - -
0.9693 1894 0.5101 - -
0.9698 1895 0.5423 - -
0.9703 1896 0.4088 - -
0.9708 1897 0.5801 - -
0.9713 1898 0.5051 - -
0.9719 1899 0.5947 - -
0.9724 1900 0.5611 0.6374 0.9537
0.9729 1901 0.57 - -
0.9734 1902 0.5558 - -
0.9739 1903 0.5192 - -
0.9744 1904 0.5319 - -
0.9749 1905 0.5511 - -
0.9754 1906 0.5118 - -
0.9759 1907 0.5721 - -
0.9765 1908 0.6543 - -
0.9770 1909 0.6707 - -
0.9775 1910 0.5997 - -
0.9780 1911 0.5712 - -
0.9785 1912 0.6574 - -
0.9790 1913 0.5981 - -
0.9795 1914 0.7499 - -
0.9800 1915 0.738 - -
0.9806 1916 0.6731 - -
0.9811 1917 0.7481 - -
0.9816 1918 0.7995 - -
0.9821 1919 0.6295 - -
0.9826 1920 0.6599 - -
0.9831 1921 0.5386 - -
0.9836 1922 0.6293 - -
0.9841 1923 0.5511 - -
0.9846 1924 0.5737 - -
0.9852 1925 0.5261 - -
0.9857 1926 0.5196 - -
0.9862 1927 0.5886 - -
0.9867 1928 0.6642 - -
0.9872 1929 0.5713 - -
0.9877 1930 0.5396 - -
0.9882 1931 0.4805 - -
0.9887 1932 0.5228 - -
0.9893 1933 0.6495 - -
0.9898 1934 0.5876 - -
0.9903 1935 0.5542 - -
0.9908 1936 0.6024 - -
0.9913 1937 0.5677 - -
0.9918 1938 0.6009 - -
0.9923 1939 0.5893 - -
0.9928 1940 0.461 - -
0.9933 1941 0.4467 - -
0.9939 1942 0.5059 - -
0.9944 1943 0.6037 - -
0.9949 1944 0.3525 - -
0.9954 1945 0.5509 - -
0.9959 1946 0.4277 - -
0.9964 1947 0.344 - -
0.9969 1948 0.4039 - -
0.9974 1949 0.3924 - -
0.9980 1950 0.3328 - -
0.9985 1951 0.3756 - -
0.9990 1952 0.3523 - -
0.9995 1953 0.6408 - -
1.0 1954 0.392 - 0.9587

Framework Versions

  • Python: 3.10.12
  • Sentence Transformers: 3.3.1
  • Transformers: 4.48.0.dev0
  • PyTorch: 2.1.0+cu118
  • Accelerate: 1.2.1
  • Datasets: 3.2.0
  • Tokenizers: 0.21.0

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

MatryoshkaLoss

@misc{kusupati2024matryoshka,
    title={Matryoshka Representation Learning},
    author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
    year={2024},
    eprint={2205.13147},
    archivePrefix={arXiv},
    primaryClass={cs.LG}
}

MultipleNegativesRankingLoss

@misc{henderson2017efficient,
    title={Efficient Natural Language Response Suggestion for Smart Reply},
    author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
    year={2017},
    eprint={1705.00652},
    archivePrefix={arXiv},
    primaryClass={cs.CL}
}
Downloads last month
49
Safetensors
Model size
149M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for estrogen/ModernBERT-base-marco

Finetuned
(44)
this model

Dataset used to train estrogen/ModernBERT-base-marco

Evaluation results