Upload folder using huggingface_hub
Browse files- .gitattributes +1 -0
- 1_Pooling/config.json +10 -0
- README.md +783 -0
- config.json +28 -0
- config_sentence_transformers.json +10 -0
- model.safetensors +3 -0
- modules.json +20 -0
- sentence_bert_config.json +4 -0
- special_tokens_map.json +51 -0
- tokenizer.json +3 -0
- tokenizer_config.json +56 -0
- trainer_state.json +453 -0
.gitattributes
CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
|
|
33 |
*.zip filter=lfs diff=lfs merge=lfs -text
|
34 |
*.zst filter=lfs diff=lfs merge=lfs -text
|
35 |
*tfevents* filter=lfs diff=lfs merge=lfs -text
|
|
|
|
33 |
*.zip filter=lfs diff=lfs merge=lfs -text
|
34 |
*.zst filter=lfs diff=lfs merge=lfs -text
|
35 |
*tfevents* filter=lfs diff=lfs merge=lfs -text
|
36 |
+
tokenizer.json filter=lfs diff=lfs merge=lfs -text
|
1_Pooling/config.json
ADDED
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"word_embedding_dimension": 1024,
|
3 |
+
"pooling_mode_cls_token": true,
|
4 |
+
"pooling_mode_mean_tokens": false,
|
5 |
+
"pooling_mode_max_tokens": false,
|
6 |
+
"pooling_mode_mean_sqrt_len_tokens": false,
|
7 |
+
"pooling_mode_weightedmean_tokens": false,
|
8 |
+
"pooling_mode_lasttoken": false,
|
9 |
+
"include_prompt": true
|
10 |
+
}
|
README.md
ADDED
@@ -0,0 +1,783 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
tags:
|
3 |
+
- sentence-transformers
|
4 |
+
- sentence-similarity
|
5 |
+
- feature-extraction
|
6 |
+
- generated_from_trainer
|
7 |
+
- dataset_size:1879136
|
8 |
+
- loss:CachedGISTEmbedLoss
|
9 |
+
base_model: BAAI/bge-m3
|
10 |
+
widget:
|
11 |
+
- source_sentence: 광주가 아시아를 넘어 전 세계에 이름을 알릴 수 있다
|
12 |
+
sentences:
|
13 |
+
- 신청대상은 광주에서 2년 이상 정상적으로 운영 중이며 근로자가 5인 이상인 기업이다
|
14 |
+
- 세계수영선수권대회는 올해 국내에서 열리는 유일한 국제 체육행사다. 또 광주가 아시아를 넘어 전 세계에 이름을 알릴 수 있는 기회로 평가받고
|
15 |
+
있으며, 광주지역 생산유발 효과도 1조4000억원에 달할 것으로 기대되고 있다.
|
16 |
+
- 가장 공격적인 확장세를 보인 은행은 광주은행이다.
|
17 |
+
- "광주 (동음이의)\n'''광주'''는 대한민국에서는 지명으로서의 통상 광주광역시를 가리키며, 경기도 광주시를 지칭할 때에는 일반적으로 ‘경기도\
|
18 |
+
\ 광주’라고 한다.\n* 광주광역시(光州廣域市, 1995년 ~ )는 대한민국 남서부에 있는 광역시로, 전라남도에 둘러싸여 있다. 이 곳에는\
|
19 |
+
\ 역사적으로 다음의 행정구역이 있었다.\n** 광주군(光州郡, 1895년 ~ 1935년)\n** 광주부(光州府, 1935년 ~ 1949년)\n\
|
20 |
+
** 광주시(光州市, 1949년 ~ 1986년)\n** 광주직할시(光州直轄市, 1986년 ~ 1995년)\n* 광주시(廣州市, 2001년 ~\
|
21 |
+
\ )는 경기도 중동부에 위치한 시이다. 이 곳에는 역사적으로 다음의 행정구역이 있었다.\n** 광주군(廣州郡, 1895년 ~ 2001년)\n\
|
22 |
+
'''광주'''는 다음 뜻으로도 쓰인다.\n* 광주 (오)는 오나라때 설치된 중국의 옛 행정구역이다.\n* 광저우()는 중화인민공화국 광둥성에\
|
23 |
+
\ 있는 시이다.\n* 12252 광주(Gwangju)는 소행성의 하나이다.\n* \n* 광주군\n* 광주시"
|
24 |
+
- 전 세계 여러 나라를 한 자리에 모은 것
|
25 |
+
- '광주 비엔날레
|
26 |
+
|
27 |
+
|
28 |
+
광주 비엔날레(光州 Biennale)는 대한민국(미국) 광주광역시에서 격년제로 열리는 현대설치미술전시회이다. 비엔날레(Biennale)란 격년제로
|
29 |
+
열리는 행사를 뜻하는 말이다. 1995년 9월에 제1회 광주 비엔날레가 시작되었으며, 2016년에는 제11회 비엔날레가 개최되었다. 아시아에서
|
30 |
+
가장 먼저 생긴 비엔날레이다. 2014년 세계적 권위의 인터넷 미술매체 아트넷(Artnet)이 선정한 ‘세계 20대 비엔날레''에서 세계 5대
|
31 |
+
비엔날레에 이름을 올렸다. 비전은 "창의적 혁신과 공존의 글로컬 시각문화 매개처"이다. 광주비엔날레는 광주비엔날레를 효율적으로 준비·운영하여
|
32 |
+
한국미술의 진흥민족문화의 창달에 이바지할 목적으로 1995년 3월 29일 설립된 문화체육관광부(대한민국 문화체육관광부) 소관의 재단법인이다.'
|
33 |
+
- source_sentence: 신성한 바르자크의 개념을 담고 있는 종교는 무엇인가요?
|
34 |
+
sentences:
|
35 |
+
- 카르장크와 영혼의 책은 심령주의, 심령술, 교령방법을 의미하며, 프랑스어의 스피리티슴(심령학)의 영역으로 알려져 있습니다. 이것은 1857년에
|
36 |
+
출간된 영혼의 책(성령의 책)에서 시작하였으며, 카르장크에 의해 감상주의와 합리주의를 특징으로 하는 종교가 되었습니다. 카르디즘이라고도 불리는
|
37 |
+
이 교의는 재수육(윤회전생)의 사상이 당시의 평등주의나 유토피아 사상과 잘 어울렸습니다. 정신주의는 기독교와는 큰 차이점이 있지만, 신자들은
|
38 |
+
기독교의 일파라고 생각하기도 합니다. 브라질을 시작으로 하는 라틴 아메리카 제국에서 넓게 신앙되어 있으며, 아프리카색이 진한 심령주의적 습합
|
39 |
+
종교인 움반다 등, 미국 선주민이나 아프리카인의 신앙 등과 결합된 심령주의의 종교도 발전하고 있습니다. 정신주의는 신의 존재, 영혼의 불멸,
|
40 |
+
환생(재생, 재수육, 윤회전생), 영계와 물질계의 의사소통(교령)을 중심으로 하며, 예수의 사랑과 자선의 가르침을 강조합니다. 알란 카르장크는
|
41 |
+
물질주의(유물론)의 대의어로서 이용되고 있던 스피리츄아리슴(유심론)과 구별하기 위해 영혼의 책에서 정신주의(심령학)라는 말을 사용했습니다.
|
42 |
+
- "아래는 '구루 나나크'에 대한 wiki 설명의 일부 이다.\n''''구루 나나크'''(, , ''Gurū Nānak'', 1469년 4월\
|
43 |
+
\ 15일 ~ 1539년 9월 22일)는 인도의 종교가이자 시크교의 창시자이다. 1469년 펀자브 지방 라호르 근교(현 파키스탄)에서 태어났다.\
|
44 |
+
\ 카스트 제도를 반대하였고 이슬람교의 영향을 받아 힌두교의 개혁을 시도한 시크교를 창시하였다. 시크교의 10명의 구루 중 첫 번째 구루이다.\n\
|
45 |
+
신이 유일 영원한 존재이며 각종 종교에서는 각각 다르게 말하지만 신은 모두 동일한 것으로 계급과 종족의 차별없이 접근할 수 있다고 주장하였다.\
|
46 |
+
\ 또 죄를 지으면 그 후세에 응보를 받는다는 인과응보, 업과 윤회의 사상을 가르쳤다. 또 우상숭배와 고행을 반대하고 묵상으로 신을 섬길 것을\
|
47 |
+
\ 역설하였다. 시크교는 인도의 펀잡 지방에 널리 퍼졌다.\n* 시크교\n* \n분류:1469년 출생\n분류:1539년 사망\n분류:시크 구루\n\
|
48 |
+
분류:종교 창시자"
|
49 |
+
- '아래는 ''바로크 회화''에 대한 wiki 설명의 일부 이다.
|
50 |
+
|
51 |
+
''''''''바로크 회화''''''는 유럽에서 1600년부터 1750년 사이에 유행한 바로크와 관련된 회화이다. 바로크는 포르투갈어로 ''비뚤어진
|
52 |
+
진주''라는 뜻으로, 르네상스의 단정하고 우아한 고전양식에 비하여 장식이 지나치고 과장된 건축과 조각에 대한 경멸의 뜻으로 사용되었으나, 지금은
|
53 |
+
르네상스에 대립하는 개념으로 팽창하는 17세기 유럽의 시대정신과 발 맞추어 외향적이고 격동적이며 회화에서는 격렬한 명암대비와 풍요로운 경향이
|
54 |
+
보였다.
|
55 |
+
|
56 |
+
바로크 회화의 창시자로는 17세기 초 이탈리아의 카라바조가 있었고 그의 영향은 곧 에스파냐와 북유럽으로 퍼져 그 추종자를 ''카라바제스키''라
|
57 |
+
불렀다. 특히 루벤스, 렘브란트를 낳은 플랑드르와 네덜란드는 바로크의 중심지가 되었으며, 에스파냐에서는 벨라스케스, 수르바란 등이 활동하였다.
|
58 |
+
프랑스에서는 니콜라 푸생 같은 작가가 있었으나 오히려 르네상스적인 ''루이 14세 양식''이 성행하였다.
|
59 |
+
|
60 |
+
16세기의 마니에리슴에 있어서 지적인 편중은 복잡한 우의(寓意)를 즐겨 쓰기도 하여 그의 호기심과 유희성은 환상적이기도 하고 에로틱하기도 한
|
61 |
+
작품을 만들어 세련된 유미주의(唯美主義)에 의해 귀족과 일부 지식계급의 주목을 끌었으나 이에 비해 17세기의 이탈리아 회화는 카라바조의 사실주의와
|
62 |
+
카라치의 아카데미즘을 두개의 축(軸)으로 하여 출발하나 이 양자가 모두 현실성과 감각성의 많고 적음의 여하로 마니에리슴 회화와 구분되고 있다.
|
63 |
+
|
64 |
+
특히 종교화에 있어서는 반종교 개혁시대의 카톨릭 체제를 정비하는 트리엔트 공회의의 결정에 따라서 의문나는 전설이나 출처 불명의 주제를 배제하였다.
|
65 |
+
마리아 숭배, 성 베드로 숭배, 새로운 성인(聖人)이나 순교자 숭배 등이 즐겨 묘사되고 있는 것이나 주제는 단순·명확해지고, 또한 종종 격렬한
|
66 |
+
감정표현을 그려내고 있다. 묘사법상으로 보아도 화면의 세부까지 균등한 강도로 그리는 것이 아니고, 주제의 명확을 위해 세부는 생략되는 수가
|
67 |
+
있다. 한편 비종교화, 특히 궁전의 장식화 등속은 르네상스 이래의 고전신화가 역시 제재)로 환영을 받으나, 거기에는 강'
|
68 |
+
- '아래는 ''동슬라브족''에 대한 wiki 설명의 일부 이다.
|
69 |
+
|
70 |
+
''
|
71 |
+
|
72 |
+
* 카자크
|
73 |
+
|
74 |
+
주로 정교회를 믿으며, 우크라이나인과 벨라루스인의 일부는 동방 가톨릭교회라는 정교회와 가톨릭교가 혼합된 종교를 믿기도 한다.
|
75 |
+
|
76 |
+
주로 동방정교회를 기반으로 하는 동슬라브 문화를 형성하고 있다.
|
77 |
+
|
78 |
+
* 서슬라브족
|
79 |
+
|
80 |
+
* 남슬라브족
|
81 |
+
|
82 |
+
* ''''Ancient Russia'''' by G. V. Vernadsky in three different versions:
|
83 |
+
|
84 |
+
** At www.erlib.com via the Internet Archive
|
85 |
+
|
86 |
+
** Gumilevica.kulichki.net
|
87 |
+
|
88 |
+
** At rodstvo.ru via the Internet Archive
|
89 |
+
|
90 |
+
분류:동슬라브족
|
91 |
+
|
92 |
+
분류:러시아의 민족
|
93 |
+
|
94 |
+
분류:우크라이나의 민족
|
95 |
+
|
96 |
+
분류:벨라루스의 민족
|
97 |
+
|
98 |
+
분류:유럽의 역사
|
99 |
+
|
100 |
+
분류:키예프 루스'
|
101 |
+
- '아래는 ''카를 바르트''에 대한 wiki 설명의 일부 이다.
|
102 |
+
|
103 |
+
''''''''카를 바르트''''''(Karl Barth, 1886년 5월 10일~1968년 12월 10일) 혹은 칼 바르트는 스위스의 개혁
|
104 |
+
교회 목사이자 20세기의 대표적인 신학자로 꼽힌다. 예수를 도덕적으로 모범을 보인 인간으로, 성서를 인간의 종교적인 경험의 기록으로, 윤리적인
|
105 |
+
지침서로 이해하던 자유주의 신학에 반대하여, 그리스도인들이 헌신적으로 복종해야 하는 ''하나님의 말씀이 인간으로 되신 예수 그리스도''를 강조하였다.
|
106 |
+
그러나 정통주의 신학의 관점에서 그의 계시관과 역사관은 차이점을 보였기에 그의 이러한 신학적인 성격을 신정통주의라고 부른다. 폴 틸리히, 에밀
|
107 |
+
브루너와 루돌프 불트만과 함께 20세기 초 개신교 신학계를 주도했다.
|
108 |
+
|
109 |
+
칼 바르트의 교회 교의학 독일어 판 Kirchliche Dogmatik
|
110 |
+
|
111 |
+
=== 목회경험 ===
|
112 |
+
|
113 |
+
신학자 프리드리히 프리츠 바르트의 장남인 카를 바르트는 유년기와 청년기를 베른에서 보냈으며, 1904년 베른 대학교, 베를린대학교, 튀빙겐
|
114 |
+
대학교에서 공부하였다. 신학생 카를 바르트는 교수들의 영향으로 당시 유럽신학계의 주류였던 자유주의 신학을 배웠다. 1911년부터 1921년까지
|
115 |
+
스위스의 작은 마을 자펜빌의 교회에서 개혁교회 목사로 목회하면서 자본가가 노동자를 착취하는 잘못된 사회를 하나님의 나라, 하나님 나라의 복음으로써
|
116 |
+
바로잡고자 하였다. 그래서 자본가들로부터는 ''빨갱이 목사''(Red Pastor)라는 비난을 받았고, 일부 공장주들은 개신교에서 로마 가톨릭으로
|
117 |
+
교파를 바꾸는 일도 있었다 한다.
|
118 |
+
|
119 |
+
=== 자유주의 신학과의 결별 ===
|
120 |
+
|
121 |
+
그는 자신이 배운 자유주의 신학에 대해서 한계를 느끼게 되는데, 하나님의 거룩함과 정의에 대해 설교하지 않으며 성경을 윤리책으로 오해하는 자유주의
|
122 |
+
신학의 잘못들을 발견했기 때문이다. 특히 1914년 8월 자유주의 신학자들의 대부분이 전쟁을 지지한 ''어둠의 날''은 그에게 자신이 배운
|
123 |
+
자유주의 신학에 대해 환멸을 느끼게 한다. 이때부터 그는 하나님은 인간을 심판하시는 분이라고 반박하여 하나님의 심판을 가르치지 않는 자유주'
|
124 |
+
- '현대 무슬림 사상가들은 바르자크를 강조하지 않고 대신 개인의 삶과 심판의 날에 초점을 맞추고 있습니다. 이러한 관점에서는 바르자흐의 상태는
|
125 |
+
단순히 사람이 죽으면 지나가고 건너뛰는 것으로 간주합니다. 바르자크를 믿는 무슬림 학자들도 다양한 전통에 따라 이 중간 상태에 대해 다양한
|
126 |
+
해석을 내리고 있습니다. 일부 전통에서는 사람의 생전 행위가 바르자크에서의 경험에 영향을 미친다고 말합니다. 이러한 전통에는 바르자흐에는 두
|
127 |
+
가지 상태가 있습니다. "아자불-카브르"로 알려진 상태에서는 전생의 행위에 대한 벌을 받게 됩니다. "탄에무 아흘리트-타아 필 카브르"로 알려진
|
128 |
+
다른 주에서는 신앙과 선행으로 인해 알라의 축복과 포상금을 받게 됩니다. 다른 전통에 따르면 바르자크의 사람들은 임시 육체를 부여받습니다.
|
129 |
+
이 관점에서는 사람에게 밝은 몸이나 어두운 몸이 주어집니다. 이 몸은 그들의 행위의 빛 또는 어둠으로부터 준비된 것으로 믿어집니다. 사람에게
|
130 |
+
밝은 몸이 주어지면 천국에 갈 것이고 어두운 몸은 지옥을 나타냅니다. 이러한 전통에서 무슬림 학자들은 바르자크에서 시신을 받으면 심판의 날에
|
131 |
+
대한 운명을 이미 알고 있다고 믿습니다.. 무슬림 학자들이 바르자크를 믿는 이러한 전통에서는 기본적으로 사람이 심판의 날 이전에 자신의 운명에
|
132 |
+
대해 잘 알고 있다고 말하고 있다는 점에 주목할 가치가 있습니다. 이것은 사람이 이 중간 상태에서 경험하는 것을 기반으로 합니다. 알-가잘리는
|
133 |
+
"첫 번째 폭발 이후 모든 피조물은 중간계 바르자흐에서 40년(1년인지, 한 달인지 등은 알 수 없음) 동안 머물게 될 것이다. 그 때에 하느님께서는
|
134 |
+
세라피엘을 깨우시고, 그가 말씀하신 대로(그는 높으신 분이다!) 두 번째 폭발을 내리라고 명령하실 것입니다: 그 때에 다시 불면 그들이 서서
|
135 |
+
바라보리니 그들이 서서 부활을 보리라." 알-자막샤리는 바르자크가 "장애물"이라는 뜻의 하일을 의미한다고 설명합니다. 이 단어의 의미에 대한
|
136 |
+
그의 적응은 꾸란 문헌에서 바르자크에 대한 언급과 일치합니다(25:53). 압둘라 유수프 알리는 바르자흐 상태를 "정지 상태"라고 언급했습니다.
|
137 |
+
영혼은 얌 알 키야마가 될 때까지 휴식 상태에 놓여 있습니다. 수피즘에서 바르자흐 또는 알람에 아라프는 인간의 영혼이 사후에 머무는 곳일 뿐만
|
138 |
+
아니라 수면과 명상 중에 영혼이 방문할 수 있는 장소이기도 합니다.'
|
139 |
+
- source_sentence: 흑인, 히스패닉 또는 가난한 집안에서 태어났어도 배울 수 있다
|
140 |
+
sentences:
|
141 |
+
- 그러나 이들이 지적 능력을 결정하는 단일한 IQ유전자를 물려받았을 것이라는 의미는 아니다. 오히려 이들은 특정한 인지 능력과 재능에 영향을
|
142 |
+
미치는 여러 가지 다양한 특징들을 물려받았을 것이다. 환경적 요인 역시 지능에 긍정적 혹은 부정적으로 영향을 미친다. 태아기를 포함해서 발달
|
143 |
+
초기의 영향 상태 부족이나 임산부의 과도한 음주는 낮은 IQ점수를 유도한다. 방치되고 빈곤한 가정환경에서 양육된 아동을 영향 상태를 좋게 해주고
|
144 |
+
보살펴주는 가정으로 옮겼을 때 IQ점수가 15점 이상 향상되었다. 아동의 기초적 인지 기술��� 학업기술을 향상시키기 위해서 계획된 장기간의 개입
|
145 |
+
프로그램 역시 효과적이다. 단지 학교에 입학하는 것만으로도 IQ점수가 긍정적으로 향상된다.
|
146 |
+
- 초등교육은 의무적으로 모든 사람에게 무상으로 제공되어야 한다.
|
147 |
+
- '에 등재되어 있다.
|
148 |
+
|
149 |
+
미국의 교육은 초기 식민지 시절부터 중요시되어 왔는데, 고등교육기관의 발전은 전쟁과 과학 연구 등에 있어 미국의 역사와 함께해왔다. 초기에서부터
|
150 |
+
현재까지 교육에 있어 종교의 영향은 매우 크며, 엘리트들의 국가 경영이 장려되는 사회여서, 사학이 발달했다. 크게 사립과 주립 혹은 국공립
|
151 |
+
교육기관으로 나뉘며, 대부분의 주에서는 6세에서 16세까지 무상·의무 교육을 실시한다. 미국 학생들의 절대 다수가 중등교육을 마치는 17,
|
152 |
+
18세 (K-12 학제 상 고등학교 졸업반)까지 학교에 다닌다. 부자들은 대체로 사립 학교에 다닌다. 실용적인 교육 철학은 교육의 마지막 기간인
|
153 |
+
대학교와 대학원의 우수성에서 알 수 있는데, 특히 대학교와 대학원 등 고등교육은 그 명성과 학열, 학생 수준, 그리고 연구 실적에서 세계 여느
|
154 |
+
나라의 고등교육기관을 압도한다. 미국에서 대학에 진학하려면 ACT(주로 중부 쪽 대학)나 SAT(주로 동부, 서부 쪽 대학)를 치러야 한다.
|
155 |
+
다른 유럽의 국가들처럼 미국도 중등 교육 단계부터 학점제를 채택한다. 교육에서는 영어를 사용하고, 외국어로는 독일어, 프랑스어, 스페인어,
|
156 |
+
라틴어, 그리스어, 히브리어, 이탈리아어, 중국어, 일본어, 한국어 중 하나를 선택한다.
|
157 |
+
|
158 |
+
미국에는 세계적으로 손꼽히는 고등교육기관이 많이 있다. 학문, 연구, 스포츠, 예술 등 각종 분야에서 권위와 영향력이 있는 명문 대학교로는
|
159 |
+
하버드 대학교를 포함하는 아이비리그와 공립 대학교(퍼블릭 아이비)인 UC 버클리, UCLA, 윌리엄 & 메리 칼리지, 버지니아, 미시간 대학교,
|
160 |
+
그리고 사립 대학교인 스탠퍼드, 시카고, 워싱턴 세인트루이스와 MIT가, 미국 남부의 대표적 사립 대학교인 듀크, 밴더빌트, 라이스와 에모리
|
161 |
+
대학교 등이 있다.
|
162 |
+
|
163 |
+
총 의 길이를 자랑하는 인터스테이트 하이웨이 시스템 지도.
|
164 |
+
|
165 |
+
개인 교통수단 중 가장 많이 차지하는 것은 자동차로, 미국은 세계에서 가장 긴 도로망을 가진 나라 중 하나인데 1억 3천 만개의 도로가 펼쳐져
|
166 |
+
있다. 또 세계에서 두 번째로 큰 자동차 시장이며, 미국인'
|
167 |
+
- 연구자들은 소득 혼합의 증가에 따라 빈곤지역에서의 교육 달성이 개선될 수 있다고 주장한다. 그러나 이것 역시 잘사는 가구에 취학 자녀가 있고
|
168 |
+
이들이 지역 학교를 이용할 것인가에 따라 성패가 달려있다.
|
169 |
+
- 여기서 드러나는 명백한 어~ 의문이 그~ 흑인이나 히스패닉이나 또는 가난한 집안에서 태어났어도 티 그니까 선 선생님이 열심히 티칭하면 성공할
|
170 |
+
수 있다. 배울 수 있다는 것이 드러났다고 다시 한 번 나와 있습니다. 여기 시월 일 일자거든요.
|
171 |
+
- 언어를 바탕으로 문학과 문화, 외국어 능력을 키울 수 있다
|
172 |
+
- source_sentence: 김원봉의 현상금이 100만원으로, 백범 김구의 현상금 60만원보다 많았다
|
173 |
+
sentences:
|
174 |
+
- "아래는 'Show Me The Money 777'에 대한 wiki 설명의 일부 이다.\n'\nTop60 \n 월터 \n 고건웅 \n \n\
|
175 |
+
\ 오사마리\nTop60 \n 챙스타 \n \n 3YE GLOBAL \n 베가본즈\nTop60 \n 손 심바, DOUBLECROSS MUSASHI,\
|
176 |
+
\ 前심바자와디, 前BoyAsh \n 손현재 \n Dejavu \n 보석집, 서리\nTop60 \n 스월비, 前Zibbie \n 신유빈 \n\
|
177 |
+
\ 하이라이트\n Team YAYA, HEARTCORE\nTop60 \n \n 박단 \n \n 칭챙총 사운드\nTop60 \n 릴타치 \n\
|
178 |
+
\ 강현준 \n 위더플럭 \n 탈주닌자클랜\nTop60 \n 라콘 \n 우재욱 \n \n 영떡스클럽, YTC4LYF, FLOCC\nTop60\
|
179 |
+
\ \n 스내키 챈 \n Roy Jae Kim \n 다이너스티 \n 前뉴다이너스티, 前업타운\nTop60 \n 키드킹 \n 백민혁 \n NHN\n\
|
180 |
+
\ Clarity\nTop60 \n Jimmy \n 김승민 \n 뷰티풀노이즈 \n WYBH, 前GOAT\nTop60 \n 댐데프 \n \n\
|
181 |
+
\ \n Deadbois\nTop60 \n DooYoung \n 최서현 \n B.A.D. \n 前굿라이프\nTop60 \n 에이체스 \n 서형석\
|
182 |
+
\ \n \n 前송파1반\nTop60 \n 타임피버 \n \n \n 前언더클라우드\nTop60 \n 포이, 前포이 뮤지엄 \n 김현빈 \n\
|
183 |
+
\ \n A-Knock, HVND\nTop60 \n 데이 데이 \n David Kim \n 前투웍스 \n Holmes, 前DMTN\nTop60\
|
184 |
+
\ \n 루이 \n 황문섭 \n 前GRDL \n 긱스\nTop60 \n 시아노 \n \n \n XII, PENTAGON Crew\nTop60\
|
185 |
+
\ \n 영보이 슈웨이, 前맥나인 \n \n FT \n=== 1차 경연 ===\n=== 세미파이널 ===\n=== 파이널 ===\n====\
|
186 |
+
\ 1차 ====\n* 나플라\n곡 : 버클 (Feat. ZICO) (Prod. by GIRIBOY)\n공연비 : 40,940,000원\n\
|
187 |
+
* Kid Milli\n곡 : WHY DO FUCKBOIS HANGOUT ON THE NET + Boss thang (Feat. Young\
|
188 |
+
\ B) (Prod. by Code Kunst)\n공연비 : 32,560,000원\n* \n==== 2차 ====\n* 나플라\n곡 : 픽업맨\
|
189 |
+
\ (Feat. Swings, GIRIBOY) (Prod. by Lnb)\n공연비 : 70,750,000원\n* 루피\n곡 : 공중도덕 part.3\n\
|
190 |
+
공연비 :\n* Kid Milli\n"
|
191 |
+
- 대인 3,000~5,000원, 청소년․소인 1,000~4,000원 수준으로 징수
|
192 |
+
- A 검사 측은 당시 술 자리 참석자가 이종필 전 라임 부사장과 김모 전 청와대 행정관을 포함해 7명이므로, 1인당 향응 수수액이 형사처벌 대상
|
193 |
+
액수(100만원)가 되지 않는다고 반박했다.
|
194 |
+
- 심사를 거쳐 1등은 50만원을, 2등과 3등에게는 각각 30만원과 20만원을 시상한다.
|
195 |
+
- 영상 부문 3명, 사진 부문 9명 등 12명을 선정해 총 200만 원의 상금을 지급한다.
|
196 |
+
- 김원봉이 대중적으로 재조명되기 시작한 것은 영화 '암살'(2015년)과 '밀정'(2016년) 덕분이다. 여기에 김원봉의 현상금이 100만원으로,
|
197 |
+
백범 김구의 현상금 60만원보다 많았다는 사실이 알려지면서 김원봉 열풍이 불었다.
|
198 |
+
- source_sentence: '어떤 아티스트가 #1에 기여했나요?'
|
199 |
+
sentences:
|
200 |
+
- '"예!"는 2주 후 정식 발매에 앞서 2004년 1월 13일에 미국 빌보드 핫 100에서 53위로 데뷔했습니다. 이 곡은 3월 2일 차트
|
201 |
+
정상을 차지한 후 12주 연속으로 그 자리를 지켰습니다. "Yeah!"는 어셔의 네 번째 1위 싱글이자 릴 존의 첫 번째, 루다크리스의 두
|
202 |
+
번째 1위 싱글이 되었습니다. 이 싱글은 45주 동안 ''핫 100''에 머물렀습니다. "Yeah!"는 2004년에 미국에서 가장 많이 재생된
|
203 |
+
노래가 되었으며, 닐슨 브로드캐스트 데이터 시스템에 따르면 총 496,805회 재생되었습니다. "Yeah!"와 후속 싱글 "Burn"의 상업적
|
204 |
+
성공은 미국 빌보드 200 차트에서 Confessions가 1위를 유지하는 데 큰 도움이 되었습니다. 이 싱글은 2006년 6월 11일 미국
|
205 |
+
레코딩 산업 협회(RIAA)로부터 발매 이후 100만 장의 판매량을 기록해 플래티넘 인증을 받았습니다. "Yeah!"는 2004년 미국에서
|
206 |
+
가장 좋은 성적을 거둔 싱글이 되었습니다. 이 싱글은 빌보드 ''핫 100 올타임 톱 송'' 11위, ''핫 100 10년 차트''에서 머라이어
|
207 |
+
캐리의 ''위 벨린 투게더''에 이어 2위에 올랐습니다. 2013년 9월까지 이 노래는 미국에서 400만 장이 판매되었습니다.'
|
208 |
+
- '아래는 ''최자''에 대한 wiki 설명의 일부 이다.
|
209 |
+
|
210 |
+
'', 랩 참여
|
211 |
+
|
212 |
+
* Tbny 1집 - 〈차렷〉 작사, 랩 참여
|
213 |
+
|
214 |
+
** 〈양면성〉 프로듀싱
|
215 |
+
|
216 |
+
* All Black(올 블랙) 싱글 앨범 《holiday》 프로듀싱, 노래 참여
|
217 |
+
|
218 |
+
* 싸이 4집 - 〈죽은 시인의 사회〉 프로듀싱, 작사, 랩 참여
|
219 |
+
|
220 |
+
* 015B 7집 - 〈너 말이야〉 작사, 랩 참여
|
221 |
+
|
222 |
+
* 비 4집 - 〈him & me〉 작사, 랩 참여
|
223 |
+
|
224 |
+
* 헤리티지 1집 - 〈믿음의 유산(never come down)〉 프로듀싱, 작사, 랩, 노래참여
|
225 |
+
|
226 |
+
* Primary skool 1집 〈작업의 정석〉 작사, 랩 참여
|
227 |
+
|
228 |
+
=== 2007년 ===
|
229 |
+
|
230 |
+
* Dynamic Duo 3집 《Enlightened》 - 앨범 프로듀서, 전곡 프로듀싱 및 작사
|
231 |
+
|
232 |
+
* 《Lisa Duet Single No.2 (Digital Single)》 참여
|
233 |
+
|
234 |
+
* Dynamic Duo 《Heartbreaker(Single)》 - 앨범 프로듀서, 프로듀싱 및 작사
|
235 |
+
|
236 |
+
* Verbal Jint EP 앨범 《Favorite》 - 랩 참여
|
237 |
+
|
238 |
+
* 리쌍 4집 - 〈투혼〉 작사, 랩 참여
|
239 |
+
|
240 |
+
=== 2008년 ===
|
241 |
+
|
242 |
+
* Dynamic Duo 4집 《Last Days》 - 앨범 프로듀서, 전곡 프로듀싱 및 작사
|
243 |
+
|
244 |
+
* 에픽하이(Epik High) 5집 - 작사, 랩 참여
|
245 |
+
|
246 |
+
=== 2009년 ===
|
247 |
+
|
248 |
+
* Dynamic Duo 싱글 《BALLAD FOR FALLEN SOUL PART1》 - 앨범 프로듀서, 전곡 프로듀싱 및 작사
|
249 |
+
|
250 |
+
* Dynamic Duo 5집 《Band of Dynamic Brothers》 - 앨범 프로듀서, 전곡 프로듀싱 및 작사
|
251 |
+
|
252 |
+
* 슈프림 팀(Supreme Team) 미니앨범 - 참여
|
253 |
+
|
254 |
+
* K.will 1st EP - 〈1초에 한방울〉 작사, 랩 참여
|
255 |
+
|
256 |
+
* 리쌍 6집 - 〈Canvas〉 작사, 랩 참여
|
257 |
+
|
258 |
+
* Fly To The Sky 8집 - 〈CLOSE TO YOU〉 작사, 랩 참여
|
259 |
+
|
260 |
+
* P''Skool - 〈Depart〉 작사, 랩 참여
|
261 |
+
|
262 |
+
* Drunken Tiger 8집 - 〈Die Legend 2〉 작사, 랩 참여
|
263 |
+
|
264 |
+
=== 2010년 ===
|
265 |
+
|
266 |
+
* 슈프림팀 1집 - 〈Music〉 작사, 랩 참여
|
267 |
+
|
268 |
+
=== 2011년 ===
|
269 |
+
|
270 |
+
* Dynamic Duo 6집 《DIGILOG 1/2》 - 앨범 프로듀서, 전곡 프로듀싱 및 작'
|
271 |
+
- "아래는 '어나니머스 아티스트'에 대한 wiki 설명의 일부 이다.\n''''어나니머스 아티스트'''는 익명 주제를 활용하여 신진 아티스트가\
|
272 |
+
\ 보유한 인지도를 서로 공유함으로써 음악의 대중 접근성을 높이는 아티스트 공유 브랜드이다.\n아티스트의 외적인 면을 배제한 채 음악으로 자신을\
|
273 |
+
\ 소개할 수 있는 방���은 '익명'이라고 생각함. 이러한 익명 주제와 더불어 브랜드를 함께 사용함으로써 하나의 인지도를 공유할 수 있다는 의미를\
|
274 |
+
\ 가미한 'Anonymous artists(익명의 아티스트들)'이 탄생.\n실력 있는 아티스트의 음원을 하나의 이름으로 2주 단위로 디지털\
|
275 |
+
\ 싱글을 발행. 발매되는 음원은 SNS 상의 공개된 곡들의 대중 데이터를 수집하여 분석, 이중에서 가능성 있는 음원들을 선발하여 진행한다.\n\
|
276 |
+
'''Yella''' - 옐라\n'''Rheehab''' - 리햅\n'''Chanakorea''' - 박찬하 (포레스트)\n'''Lay.bn'''\
|
277 |
+
\ - 레이븐\n'''Bamsem''' - 밤샘\n'''D’sperado''' - 디스페라도\n'''EXN''' - 이엑센\n'''Jayci\
|
278 |
+
\ yucca''' - 제이씨 유카\n'''JUNNY''' - 주니\n'''BiNTAGE''' - 빈티지\n'''FR:EDEN''' - 프리든\n\
|
279 |
+
'''H:SEAN''' - 허션\n'''oceanfromtheblue''' - 오션\n'''dana kim''' - 다나킴\n'''Red House'''\
|
280 |
+
\ - 레드하우스\n'''POY Muzeum''' - 포이 뮤지엄\n'''Dopein''' - 도핀\n'''Lutto''' - 루또\n'''ACACY'''\
|
281 |
+
\ - 아카시\n'''Dino.T''' - 다이노티\n'''Brown Tigger''' - 브라운 티거\n'''bananaboi''' - 바나나보이\n\
|
282 |
+
'''Artinb''' - 알틴비\n'''VANSPACE''' - 한다윗\n'''쭈노 다이스키''' \n'''vankushuma''' - 반쿠슈마\n\
|
283 |
+
BLUE (Art. YELLA (옐라)) \nKnock (Art. Bamsem (밤샘)) \n꺼내줘 (Art. FR:EDEN (프리든)) \n\
|
284 |
+
playtoy (Art. BAYLEE (베이리))"
|
285 |
+
- '아래는 ''THE IDOLM@STER MASTER ARTIST''에 대한 wiki 설명의 일부 이다.
|
286 |
+
|
287 |
+
''키 리츠코(와카바야시 나오미)
|
288 |
+
|
289 |
+
#: 작사·작곡·편곡: NBGI(고사키 사토루)
|
290 |
+
|
291 |
+
# 토크 06
|
292 |
+
|
293 |
+
# ''''''i''''''
|
294 |
+
|
295 |
+
#: 가: 아키즈키 리츠코(와카바야시 나오미)
|
296 |
+
|
297 |
+
#: 작사: 나카무라 메구미, 작곡·편곡: NBGI(사사키 히로시인)
|
298 |
+
|
299 |
+
# 토크 07
|
300 |
+
|
301 |
+
# 가득 가득(오리지널 가라오케)
|
302 |
+
|
303 |
+
#: 작사: 나카무라 메구미, 작곡: NBGI(사사키 히로시인)
|
304 |
+
|
305 |
+
# 토크 08
|
306 |
+
|
307 |
+
; 수록곡
|
308 |
+
|
309 |
+
# ''''''단결''''''
|
310 |
+
|
311 |
+
#: 가: IM@S ALLSTARS아마미 하루카(나카무라 에리코)·키사라기 치하야(이마이 아사미)·하기와라 유키호(오치아이 유리카)·타카츠키
|
312 |
+
야요이(니고 마야코)·아키즈키 리츠코(와카바야시 나오미)·미우라 아즈사(타카하시 치아키)·미나세 이오리(쿠기미야 리에)·키쿠치 마코토(히라타
|
313 |
+
히로미)·후타미 아미/마미(시모다 아사미)·호시이 미키(하세가와 아키코)
|
314 |
+
|
315 |
+
#: 작사: NBGI(이시하라 아키히로), 작곡·편곡: NBGI(사사키 히로시인)
|
316 |
+
|
317 |
+
# 토크 01
|
318 |
+
|
319 |
+
# ''''''하늘''''''
|
320 |
+
|
321 |
+
#: 가: 오토나시 코토리(타키타 쥬리)
|
322 |
+
|
323 |
+
#: 작사: yura, 작곡: NBGI(고사키 사토루)
|
324 |
+
|
325 |
+
# 토크 02
|
326 |
+
|
327 |
+
# ''''''i''''''
|
328 |
+
|
329 |
+
#: 가: 오토나시 코토리(타키타 쥬리)
|
330 |
+
|
331 |
+
#: 작사: 나카무라 메구미, 작곡·편곡: NBGI(사사키 히로시인)
|
332 |
+
|
333 |
+
# 토크 03
|
334 |
+
|
335 |
+
# ''''상냥함에 싸였다면''''
|
336 |
+
|
337 |
+
#: 가: 오토나시 코토리(타키타 쥬리)
|
338 |
+
|
339 |
+
#: 작사·작곡·편곡: 아라이 유미
|
340 |
+
|
341 |
+
#: 오리지널 아티스트: 아라이 유미
|
342 |
+
|
343 |
+
# 토크 04
|
344 |
+
|
345 |
+
# ''''''IDOL''''''
|
346 |
+
|
347 |
+
#: 가: 오토나시 코토리(타키타 쥬리) featuring T타카기 쥰이치로 (토쿠마루 칸)·논담 테츠야 (호소이 오사무)
|
348 |
+
|
349 |
+
#: 작사: yura, 작곡·편곡; 우에다 코오지, 편곡: 쿠사노 요시히로
|
350 |
+
|
351 |
+
# 토크 05
|
352 |
+
|
353 |
+
# ''''''i''''''
|
354 |
+
|
355 |
+
#: 가: IM@S ALLSTARS+아마미 하루카(나카무라 에리코)·키사라기 치하야(이마이 아사미)·하기와라 유키호(오치아이 유리카)·타카츠키
|
356 |
+
야요이(니고 마야코)·아키즈키 리츠코(와카바야시 나오미)·미우라 아즈사(타카하시 치아키)·미나세 이오리(쿠기미야 리에)·키쿠치 마코토(히라타
|
357 |
+
히로미)·후타미 아미/마미(시모다 아사미)·호시이 미키(하세가와 아키코)·오토나시 코토리(타키타 쥬리)
|
358 |
+
|
359 |
+
#: 작사: 나카무라 메구미, 작곡·편곡: NBGI(사사키'
|
360 |
+
- '아래는 ''Color (NEWS의 음반)''에 대한 wiki 설명의 일부 이다.
|
361 |
+
|
362 |
+
'' '''''''''''' / ''''''모두가 있는 세상을 하나로 사랑을 좀 더 Give & Take합시다'''''' - 마스다 타카히사,
|
363 |
+
야마시타 토모히사, 코야마 케이치로
|
364 |
+
|
365 |
+
#: 작사: zopp / 작곡: 히로이즘 / 편곡: 스즈키 마사야
|
366 |
+
|
367 |
+
# '''''''''''' / ''''''무라리스토'''''' - 코야마 케이치로, 카토 시게아키
|
368 |
+
|
369 |
+
#: 작사·작곡: 키노시타 토모야 / 편곡: 오쿠보 카오루
|
370 |
+
|
371 |
+
# '''''''''''' / ''''''태양의 눈물''''''
|
372 |
+
|
373 |
+
#: 작사·작곡: 카와노 미치오 / 편곡: m-takeshi / string arrangement: CHICA strings / 코러스: 타카하시
|
374 |
+
테츠야
|
375 |
+
|
376 |
+
# ''''''Smile Maker''''''
|
377 |
+
|
378 |
+
#: 작사·작곡: 0 SOUL 7 / 편곡: 스즈키 마사야 / 코러스: Ko-saku
|
379 |
+
|
380 |
+
# ''''''Happy Birthday''''''
|
381 |
+
|
382 |
+
#: 작사: SEAMO / 작곡: SEAMO, Shintaro"Growth"Izutsu / ��곡: Shintaro"Growth"Izutsu
|
383 |
+
/ 플러스 & string arrangement: 오츠보 나오키
|
384 |
+
|
385 |
+
# ''''''FLY AGAIN''''''
|
386 |
+
|
387 |
+
#: 작사: Azuki / 작곡: 히로이즘 / 편곡: NAOKI-T
|
388 |
+
|
389 |
+
# '''''''''''' / ''''''영원한 색의 사랑'''''' (통상반 한정)
|
390 |
+
|
391 |
+
#: 작사: m-takeshi / 작곡: Stefan Aberg, Shusui / 편곡: 나카니시 료스케
|
392 |
+
|
393 |
+
* 주간 최고 순위 1위 (오리콘 차트)
|
394 |
+
|
395 |
+
* 2008년 12월간 4위 (오리콘 차트)
|
396 |
+
|
397 |
+
* 2008년 연간 순위 51위 (오리콘 차트)
|
398 |
+
|
399 |
+
* 등장 횟수 14회 (오리콘 차트)
|
400 |
+
|
401 |
+
* 쟈니즈 넷에 의한 소개 페이지
|
402 |
+
|
403 |
+
* 쟈니즈 엔터테인먼트에 의한 소개 페이지
|
404 |
+
|
405 |
+
분류:NEWS의 음반
|
406 |
+
|
407 |
+
분류:2008년 음반
|
408 |
+
|
409 |
+
분류:2008년 오리콘 앨범 차트 1위 작품
|
410 |
+
|
411 |
+
분류:일본어 음반'
|
412 |
+
- ' 후원금 1억원을 전달했다고 밝혔다. '
|
413 |
+
pipeline_tag: sentence-similarity
|
414 |
+
library_name: sentence-transformers
|
415 |
+
---
|
416 |
+
|
417 |
+
# SentenceTransformer based on BAAI/bge-m3
|
418 |
+
|
419 |
+
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [BAAI/bge-m3](https://huggingface.co/BAAI/bge-m3) on the json dataset. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
|
420 |
+
|
421 |
+
## Model Details
|
422 |
+
|
423 |
+
### Model Description
|
424 |
+
- **Model Type:** Sentence Transformer
|
425 |
+
- **Base model:** [BAAI/bge-m3](https://huggingface.co/BAAI/bge-m3) <!-- at revision 5617a9f61b028005a4858fdac845db406aefb181 -->
|
426 |
+
- **Maximum Sequence Length:** 2048 tokens
|
427 |
+
- **Output Dimensionality:** 1024 dimensions
|
428 |
+
- **Similarity Function:** Cosine Similarity
|
429 |
+
- **Training Dataset:**
|
430 |
+
- json
|
431 |
+
<!-- - **Language:** Unknown -->
|
432 |
+
<!-- - **License:** Unknown -->
|
433 |
+
|
434 |
+
### Model Sources
|
435 |
+
|
436 |
+
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
|
437 |
+
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
|
438 |
+
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
|
439 |
+
|
440 |
+
### Full Model Architecture
|
441 |
+
|
442 |
+
```
|
443 |
+
SentenceTransformer(
|
444 |
+
(0): Transformer({'max_seq_length': 2048, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
|
445 |
+
(1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
|
446 |
+
(2): Normalize()
|
447 |
+
)
|
448 |
+
```
|
449 |
+
|
450 |
+
## Usage
|
451 |
+
|
452 |
+
### Direct Usage (Sentence Transformers)
|
453 |
+
|
454 |
+
First install the Sentence Transformers library:
|
455 |
+
|
456 |
+
```bash
|
457 |
+
pip install -U sentence-transformers
|
458 |
+
```
|
459 |
+
|
460 |
+
Then you can load this model and run inference.
|
461 |
+
```python
|
462 |
+
from sentence_transformers import SentenceTransformer
|
463 |
+
|
464 |
+
# Download from the 🤗 Hub
|
465 |
+
model = SentenceTransformer("sentence_transformers_model_id")
|
466 |
+
# Run inference
|
467 |
+
sentences = [
|
468 |
+
'어떤 아티스트가 #1에 기여했나요?',
|
469 |
+
'"예!"는 2주 후 정식 발매에 앞서 2004년 1월 13일에 미국 빌보드 핫 100에서 53위로 데뷔했습니다. 이 곡은 3월 2일 차트 정상을 차지한 후 12주 연속으로 그 자리를 지켰습니다. "Yeah!"는 어셔의 네 번째 1위 싱글이자 릴 존의 첫 번째, 루다크리스의 두 번째 1위 싱글이 되었습니다. 이 싱글은 45주 동안 \'핫 100\'에 머물렀습니다. "Yeah!"는 2004년에 미국에서 가장 많이 재생된 노래가 되었으며, 닐슨 브로드캐스트 데이터 시스템에 따르면 총 496,805회 재생되었습니다. "Yeah!"와 후속 싱글 "Burn"의 상업적 성공은 미국 빌보드 200 차트에서 Confessions가 1위를 유지하는 데 큰 도움이 되었습니다. 이 싱글은 2006년 6월 11일 미국 레코딩 산업 협회(RIAA)로부터 발매 이후 100만 장의 판매량을 기록해 플래티넘 인증을 받았습니다. "Yeah!"는 2004년 미국에서 가장 좋은 성적을 거둔 싱글이 되었습니다. 이 싱글은 빌보드 \'핫 100 올타임 톱 송\' 11위, \'핫 100 10년 차트\'에서 머라이어 캐리의 \'위 벨린 투게더\'에 이어 2위에 올랐습니다. 2013년 9월까지 이 노래는 미국에서 400만 장이 판매되었습니다.',
|
470 |
+
'아래는 \'Color (NEWS의 음반)\'에 대한 wiki 설명의 일부 이다.\n\' \'\'\'\'\'\' / \'\'\'모두가 있는 세상을 하나로 사랑을 좀 더 Give & Take합시다\'\'\' - 마스다 타카히사, 야마시타 토모히사, 코야마 케이치로\n#: 작사: zopp / 작곡: 히로이즘 / 편곡: 스즈키 마사야\n# \'\'\'\'\'\' / \'\'\'무라리스토\'\'\' - 코야마 케이치로, 카토 시게아키\n#: 작사·작곡: 키노시타 토모야 / 편곡: 오쿠보 카오루\n# \'\'\'\'\'\' / \'\'\'태양의 눈물\'\'\'\n#: 작사·작곡: 카와노 미치오 / 편곡: m-takeshi / string arrangement: CHICA strings / 코러스: 타카하시 테츠야\n# \'\'\'Smile Maker\'\'\'\n#: 작사·작곡: 0 SOUL 7 / 편곡: 스즈키 마사야 / 코러스: Ko-saku\n# \'\'\'Happy Birthday\'\'\'\n#: 작사: SEAMO / 작곡: SEAMO, Shintaro"Growth"Izutsu / 편곡: Shintaro"Growth"Izutsu / 플러스 & string arrangement: 오츠보 나오키\n# \'\'\'FLY AGAIN\'\'\'\n#: 작사: Azuki / 작곡: 히로이즘 / 편곡: NAOKI-T\n# \'\'\'\'\'\' / \'\'\'영원한 색의 사랑\'\'\' (통상반 한정)\n#: 작사: m-takeshi / 작곡: Stefan Aberg, Shusui / 편곡: 나카니시 료스케\n* 주간 최고 순위 1위 (오리콘 차트)\n* 2008년 12월간 4위 (오리콘 차트)\n* 2008년 연간 순위 51위 (오리콘 차트)\n* 등장 횟수 14회 (오리콘 차트)\n* 쟈니즈 넷에 의한 소개 페이지\n* 쟈니즈 엔터테인먼트에 의한 소개 페이지\n분류:NEWS의 음반\n분류:2008년 음반\n분류:2008년 오리콘 앨범 차트 1위 작품\n분류:일본어 음반',
|
471 |
+
]
|
472 |
+
embeddings = model.encode(sentences)
|
473 |
+
print(embeddings.shape)
|
474 |
+
# [3, 1024]
|
475 |
+
|
476 |
+
# Get the similarity scores for the embeddings
|
477 |
+
similarities = model.similarity(embeddings, embeddings)
|
478 |
+
print(similarities.shape)
|
479 |
+
# [3, 3]
|
480 |
+
```
|
481 |
+
|
482 |
+
<!--
|
483 |
+
### Direct Usage (Transformers)
|
484 |
+
|
485 |
+
<details><summary>Click to see the direct usage in Transformers</summary>
|
486 |
+
|
487 |
+
</details>
|
488 |
+
-->
|
489 |
+
|
490 |
+
<!--
|
491 |
+
### Downstream Usage (Sentence Transformers)
|
492 |
+
|
493 |
+
You can finetune this model on your own dataset.
|
494 |
+
|
495 |
+
<details><summary>Click to expand</summary>
|
496 |
+
|
497 |
+
</details>
|
498 |
+
-->
|
499 |
+
|
500 |
+
<!--
|
501 |
+
### Out-of-Scope Use
|
502 |
+
|
503 |
+
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
|
504 |
+
-->
|
505 |
+
|
506 |
+
<!--
|
507 |
+
## Bias, Risks and Limitations
|
508 |
+
|
509 |
+
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
|
510 |
+
-->
|
511 |
+
|
512 |
+
<!--
|
513 |
+
### Recommendations
|
514 |
+
|
515 |
+
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
|
516 |
+
-->
|
517 |
+
|
518 |
+
## Training Details
|
519 |
+
|
520 |
+
### Training Dataset
|
521 |
+
|
522 |
+
#### json
|
523 |
+
|
524 |
+
* Dataset: json
|
525 |
+
* Size: 1,879,136 training samples
|
526 |
+
* Columns: <code>anchor</code>, <code>positive</code>, <code>negative_1</code>, <code>negative_2</code>, <code>negative_3</code>, <code>negative_4</code>, and <code>negative_5</code>
|
527 |
+
* Approximate statistics based on the first 1000 samples:
|
528 |
+
| | anchor | positive | negative_1 | negative_2 | negative_3 | negative_4 | negative_5 |
|
529 |
+
|:--------|:----------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
|
530 |
+
| type | string | string | string | string | string | string | string |
|
531 |
+
| details | <ul><li>min: 7 tokens</li><li>mean: 17.81 tokens</li><li>max: 46 tokens</li></ul> | <ul><li>min: 12 tokens</li><li>mean: 129.07 tokens</li><li>max: 1305 tokens</li></ul> | <ul><li>min: 2 tokens</li><li>mean: 326.18 tokens</li><li>max: 2048 tokens</li></ul> | <ul><li>min: 2 tokens</li><li>mean: 334.06 tokens</li><li>max: 2048 tokens</li></ul> | <ul><li>min: 2 tokens</li><li>mean: 323.23 tokens</li><li>max: 2048 tokens</li></ul> | <ul><li>min: 2 tokens</li><li>mean: 322.67 tokens</li><li>max: 2048 tokens</li></ul> | <ul><li>min: 2 tokens</li><li>mean: 316.95 tokens</li><li>max: 2048 tokens</li></ul> |
|
532 |
+
* Samples:
|
533 |
+
| anchor | positive | negative_1 | negative_2 | negative_3 | negative_4 | negative_5 |
|
534 |
+
|:----------------------------------------------|:--------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
535 |
+
| <code>대한민국 헌법은 전문과 110조 그리고 부칙 5조로 돼있다</code> | <code>대한민국 헌법<br><br>전문(前文)과 본문 130개조, 부칙 6개조로 구성되어 있다.</code> | <code>아래는 '대한민국 헌법 전문'에 대한 wiki 설명의 일부 이다.<br>'히 하고, 능력을 최고도로 발휘하게 하며, 자유와 권리에 따르는 책임과 의무를 완수하게 하여, 안으로는 국민생활의 균등한 향상을 기하고 밖으로는 항구적인 세계평화와 인류공영에 이바지함으로써 우리들과 우리들의 자손의 안전과 자유와 행복을 영원히 확보하는 새로운 역사를 창조할 것을 다짐하면서 1948년 7월 12일에 제정되고 1960년 6월 15일, 1962년 12월 26일과 1972년 12월 27일에 개정된 헌법을 이제 국민투표에 의하여 개정한다.<br>=== 1987년 10월 29일 9차 개헌 ===<br>:유구한 역사와 전통에 빛나는 우리 대한국민은 3·1운동으로 건립된 대한민국임시정부의 법통과 불의에 항거한 4·19민주이념을 계승하고, 조국의 민주개혁과 평화적 통일의 사명에 입각하여 정의·인도와 동포애로써 민족의 단결을 공고히 하고, 모든 사회적 폐습과 불의를 타파하며, 자율과 조화를 바탕으로 자유민주적 기본질서를 더욱 확고히 하여 정치·경제·사회·문화의 모든 영역에 있어서 각인의 기회를 균등히 하고, 능력을 최고도로 발휘하게 하며, 자유와 권리에 따르는 책임과 의무를 완수하게 하여, 안으로는 국민생활의 균등한 향상을 기하고 밖으로는 항구적인 세계평화와 인류공영에 이바지함으로써 우리들과 우리들의 자손의 안전과 자유와 행복을 영원히 확보할 것을 다짐하면서 1948년 7월 12일에 제정되고 8차에 걸쳐 개정된 헌법을 이제 국회의 의결을 거쳐 국민투표에 의하여 개정한다.<br>* 헌법의 기본원리<br>* 기본권<br>*00</code> | <code>아래는 '대한민국 헌법 제1장'에 대한 wiki 설명의 일부 이다.<br>''''대한민국 헌법 제1장 총강'''은 대한민국 헌법의 총강이다.<br>* 제1조 국호·정치체제·국가형태·주권<br>* 제2조 국민의 요건과 국가의 재외국민 보호 의무<br>* 제3조 영토<br>* 제4조 통일<br>* 제5조 침략적 전쟁의 부인과 국군의 사명 및 정치적 중립성의 준수<br>* 제6조 조약 및 국제법규의 효력과 외국인의 법적 지위<br>* 제7조 공무원의 지위·책임·신분·정치적 중립성<br>* 제8조 정당 설립의 자유·복수정당제·요건<br>* 제9조 전통문화의 계승·발전과 민족문화 창달의 노력 의무<br>헌법은 일반적으로 총강으로 시작하지만, 총강이 없는 경우도 많다. 다만 벨기에·노르웨이·캐나다는 총강을 후반부에 위치시키고 있다. 총강은 국가형태를 규정하며, 세부적인 지방자치 등을 규정하는 경우도 있지만 드물다. 대한민국 헌법의 총강에서는 영토와 국적을 규정하고 있지만, 이는 특수한 경우에 해당한다. 수도와 공용어, 국기 등의 국가상징 등을 규정하는 경우도 있다.<br>* 대한민국 헌법<br>* 신행정수도법 위헌 확인 결정<br>*01</code> | <code>아래는 '대한민국 헌법 전문'에 대한 wiki 설명의 일부 이다.<br>'에 관하여 명문 규정을 두고 있지 않으나 전문(前文)에서 “3.1운동으로 건립된 대한민국임시정부의 법통을 계승”한다고 선언하고 있다. 이는 대한민국이 일제에 항거한 독립운동가의 공헌과 희생을 바탕으로 이룩된 것임을 선언한 것이고, 그렇다면 국가는 일제로부터 조국의 자주독립을 위하여 공헌한 독립유공자와 그 유족에 대하여는 응분의 예우를 하여야 할 헌법적 의무를 지닌다”고 판시하였다.<br>* 헌법 전문에 규정된 4·19 민주이념은 제5차 개정 헌법에서 처음으로 규정되었으며, 제8차 개정 헌법에서 삭제되었다가 현행 헌법에서 다시 규정되었다.<br>=== 1948년 7월 12일 최초 헌법 ===<br>:유구한 역사와 전통에 빛나는 우리들 대한국민은 기미 삼일운동으로 대한민국을 건립하여 세계에 선포한 위대한 독립정신을 계승하여 이제 민주독립국가를 재건함에 있어서 정의인도와 동포애로써 민족의 단결을 공고히 하며 모든 사회적 폐습을 타파하고 민주주의제제도를 수립하여 정치, 경제, 사회, 문화의 모든 영역에 있어서 각인의 기회를 균등히 하고 능력을 최고도로 발휘케 하며 각인의 책임과 의무를 완수케하여 안으로는 국민생활의 균등한 향상을 기하고 밖으로는 항구적인 국제평화의 유지에 노력하여 우리들과 우리들의 자손의 안전과 자유와 행복을 영원히 확보할 것을 결의하고 우리들의 정당 또 자유로히 선거된 대표로서 구성된 국회에서 단기 4281년 7월 12일 이 헌법을 제정한다<br>=== 1952년 7월 7일 1차 개헌 ===<br>:- 헌법 전문 변경사항 없음<br>=== 1954년 11월 29일 2차 개헌 ===<br>:- 헌법 전문 변경사항 없음<br>=== 1960년 6월 15일 3차 개헌 ===<br>- 변경 사항없음<br>=== 1960년 11월 29일 4차 개헌 ===<br>변경사항 없음<br>=== 1962년 12월 26일 5차 개헌 ===<br>:유구한 역사와 전통에 빛나는 우리 대한국민은 3·1운동의 숭고한 독립정신을 계승하고 4·19의거와 5·16혁명의 이념에 입각하...</code> | <code>(3) 헌법규범의 재정립을 통한 국가정체성의 확립<br>1948년에 대한민국의 건국과 더불어 탄생한 대한민국헌법의 정통성과 정체성을 확보하기 위하여 헌법전문에서 헌법의 연혁으로서 상해임시정부의 법통과 4‧19민주이념의 계승을 명시하고 있으나 헌법총강에서 이를 보다 구체화하는 작업이 필요하다.<br>우리 헌법은 외국의 입헌주의적 헌법의 모델과 유사하게 헌법전문, 총강, 기본권, 정치제도의 순으로 규정되어 있다. 헌법의 성립유래와 헌법의 기본원리를 천명하고 있는 헌법전문의 정신은 헌법총강에서 충실하게 구현되어야 한다. 즉 헌법총강에서는 대한민국의 기본원리와 더불어 대한민국이 나아가야 할 이���적 지표를 분명히 하여야 한다. 헌법의 이념성과 정치성에 비추어 본다면 국가로서의 대한민국의 정체성을 밝히는 일련의 규범 정립이 필요하다.</code> | <code>아래는 '대한민국 헌법 부칙'에 대한 wiki 설명의 일부 이다.<br>''''대한민국 헌법 부칙'''은 대한민국 헌법의 부칙에 대하여 기술하고 있는 장이다. 6개 조로 이루어져 있으며 개정 헌법의 시행일, 최초 대통령과 국회의원 선거 및 임기 등을 기술하고 있다.<br>* 제1조 시행일<br>* 제2조 최초의 대통령선거와 임기<br>* 제3조 최초의 국회의원선거와 임기 <br>* 제4조 헌법 시행 당시의 공무원과 정부가 임명한 기업체의 임원, 대법원장 및 대법원 판사의 임기 효력<br>* 제5조 헌법 시행 당시의 법령과 조약의 효력 <br>* 제6조 헌법 시행 당시, 새 헌법에 의하여 새로 설치될 기관의 권한에 속하는 직무<br>1987년 10월 9일 국민투표를 통해 제10호 헌법이 확정되었지만, 부칙 제1조 조항에 따라 1988년 2월 25일에 헌법이 발효되었다.<br>* 대한민국의 헌법<br>* 대한민국 헌법의 역사<br>*11</code> |
|
536 |
+
| <code>국채 보상 운동은 1907년 대구에서 시작했다</code> | <code>국채보상운동<br><br>1907년 2월 경상북도 대구에서 서상돈, 김광제, 윤필오 등에 의해 처음 시작되어 전국으로 번져나갔다.</code> | <code>아래는 '국채보상운동기념공원'에 대한 wiki 설명의 일부 이다.<br>'져 있으며, 벤치도 넉넉하게 마련되어 휴식을 즐기기에 적당하다. 또한 시원스럽게 뿜어대는 분수와 정자, 시골강산 나무를 연상시키는 석조물 등이 정취를 살리고 있다. 청소년 놀이마당, 음악회, 전시회 등이 개최되고 있으며, 달구벌대종 타종의식 행사를 매주 토.일 시행함으로써 많은 관광객들이 공원을 찾고 있다.<br>국채보상운동기념공원은 1907년 2월 21일 일제강점기 대구에서 시작된 대표적 민족운동인 국채보상운동을 기념하는 공원으로, 1998년 3월부터 1999년 12월까지 조성됐다. 공원 동쪽은 공평로, 북쪽은 국채보상로, 서쪽은 동덕로로 둘러싸여 있다. 민족시인 이육사, 박목월, 조지훈, 이호우, 윤동주의 시비와 대형영상시설물 등이 분수와 석조물 등 조경물과 어우러져 있다. ‘달구벌대종’은 매년 12월 31일 자정에 제야의 종 타종식을 거행한다.<br>국채보상운동기념공원에는 255m 길이의 대왕참나무 오솔길과 소나무숲, 분수와 정자, 잔디광장, 향토 출신 시인들의 시비가 세워져 있는 시상의 오솔길, 선현들의 명언비로 꾸민 명언순례의 길 등이 갖추어져 있다. 가로 9m, 세로 6m 규모의 대형 전광판을 통해 각종 생활정보와 프로그램 중계 등을 볼 수 있다. 공원 곳곳에는 낙락장송 및 이팝나무·산벚나무 등 30종 1만 2300여 그루의 수목과 원추리·은방울꽃 등 5종 3만여 본의 꽃이 심어져 있다. 또한 무게 22.5t의 달구벌 대종이 있어 해마다 이곳에서 '제야의 종' 타종식을 거행한다. 대구시민의 도심 속 휴식공간으로 이용되며, 각종 전시회와 공연장으로도 활용되고 있다.<br>=== 사진 ===<br>National Debt Repayment Movement Park-2.jpg|국채보상운동기념공원표지석<br>Daegu thoroughfare.jpg|국채보상로 종각네거리(도로 왼편이 국채보상운동기념공원이다)<br>* 국채보상운동기념공원 - 대구광역시청<br>* 국채보상운동기념공원 - 국채보상운동기념사업회<br>* 국채보상운동<br>* ...</code> | <code>대한제국<br><br>초기에는 일본 제국의 황무지 개간권 요구를 좌절시킨 보안회와 입헌 군주제를 수립하고자 설립된 헌정연구회의 활동이 두드러졌다. 1905년 이후에는 대한 자강회와 대한 협회, 신민회를 위시한 개화 운동과 독립협회 활동을 계승한 사회 발전과 변화를 추구하는 지식인들이 사회진화론에 영향받아 국권을 회복하려는 애국 계몽 운동을 전개하였다. 이 애국계몽운동은 교육과 산업과 언론 활동을 이용한 실력 양성 운동을 꾀하고자 하였다. 1907년(광무(광무 (연호)) 11년, 융희 원년) 2월 대구(대구광역시)에서 김광제와 서상돈가 제안한 국채보상운동이 시작되어 전국으로 번져나갔다. 이것은 일본 제국이 대한제국을 경제상 예속시키고자 제공한 차관 1,300만 원을 국민이 갚고자 전개한 운동이었으나 이런 애국 계몽운동과 국채보상운동은 일본 제국 통감부가 방해하고 탄압하여 결국 실패한다. 이런 국권을 수호하려는 여러 운동은 민족 독립운동 이념과 전략을 제시, 장기에 걸친 민족운동 기반을 조성했다는 의의가 있으나 일본 제국의 침략과 지배를 어쩔 수 없는 현실로 인정하는 오류를 저질렀다는 평가도 지적된다. 즉, 당시 일본 제국에 정치상으로나 군사상으로나 예속된 상황에서 전개되어 성과 면에서 한계성이 노출되었다.</code> | <code>또한, 독립 협회가 해체되고서 헌정연구회 같은 개화 자강 계열 여러 단체가 설립되어 친일 단체인 일진회에 대립하고 대항하면서 구국 민족 운동을 전개하였다. 초기에는 일본 제국의 황무지 개간권 요구를 좌절시킨 보안회와 입헌 군주제를 수립하고자 설립된 헌정연구회의 활동이 두드러졌다. 1905년 이후에는 대한 자강회와 대한 협회, 신민회를 위시한 개화 운동과 독립협회 활동을 계승한 사회 발전과 변화를 추구하는 지식인들이 사회진화론에 영향받아 국권을 회복하려는 애국 계몽 운동을 전개하였다. 이 애국계몽운동은 교육과 산업과 언론 활동을 이용한 실력 양성 운동을 꾀하고자 하였다. 1907년(광무(광무 (연호)) 11년, 융희 원년) 2월 대구(대구광역시)에서 김광제와 서상돈가 제안한 국채보상운동이 시작되어 전국으로 번져나갔다. 이것은 일본 제국이 대한제국을 경제상 예속시키고자 제공한 차관 1,300만 원을 국민이 갚고자 전개한 운동이었으나 이런 애국 계몽운동과 국채보상운동은 일본 제국 통감부가 방해하고 탄압하여 결국 실패한다. 이런 국권을 수호하려는 여러 운동은 민족 독립운동 이념과 전략을 제시, 장기에 걸친 민족운동 기반을 조성했다는 의의가 있으나 일본 제국의 침략과 지배를 어쩔 수 없는 현실로 인정하는 오류를 저질렀다는 평가도 지적된다.</code> | <code>대구 10·1 사건(大邱 10·1 事件)은 1946년 10월 1일에 미군정하의 대구에서 발발, 이후 남한 전역으로 확산된 일련의 사건을 지칭한다. 역사적 관점에 따라 10월 인민항쟁,10·1사건, 영남 소요, 10월 폭동 등으로 불린다. 옹호하는 입장에서는 10월 인민항쟁, 비판하는 입장에서는 영남 소요, 10월 폭동으로 부르며, 중립적인 입장에서는 10·1사태로 부른다. 조선공산당의 선동 및 주도를 주장하는 시각에서는 10월 폭동으로 부르기도 한다. 과거에는 10월 폭동, 영남 소요, 10월 항쟁의 용어가 혼용되었으며, 공식적으로는 보다 중립적인 10·1사건이라는 지칭을 사용한다.<br><br>2010년 3월 대한민국 진실화해위원회는 《대구 10월사건 관련 진실규명결정서》에서 해당 사건을 "식량난이 심각한 상태에서 미 군정이 친일관리를 고용하고 토지개혁을 지연하며 식량 공출 정책을 강압적으로 시행하자 불만을 가진 민간인과 일부 좌익 세력이 경찰과 행정 당국에 맞서 발생한 사건"이라고 규정하고, 국가의 책임을 인정해 유족들에 대한 사과와 위령사업을 지원하도록 권고하는 결정을 내렸다.<br><br>배경 <br><br>광복 이후 재조선미육군사령부군정청(USAMGIK) 기의 남한내 한인들의 삶은 굶주리는 처지였다. 미군정의 쌀 배급 정책이 실패했기 때문이었다. 이 시기 콜레라가 창궐한 대구의 굶주림은 특히 더 심했었다. 대구, 경북 일대에 2천여 명의 콜레라 환자가 발생하자 치료를 위한 조치들은 제대로 하지 않은 채 전염을 막는다며 대구를 봉쇄해버린 탓이었다. 차량은 물론 사람조차 시경계를 넘을 수 없게 되면서 그 결과 농작물과 생필품 공급이 끊어지고 말았다. 무엇보다도 쌀이 부족했다. 당시 돈이 있다해도 쌀을 구할 수 없어 콜레라를 치료하는 의사들조차도 콩나물과 쌀로 죽을 끓여 먹을 지경이었다고 한다. 또한 국립경찰 로 채용된 과거 친일파 출신 경찰들이 일제시대 방식 그대로 농민들의 쌀을 강탈하다 ��피 공출해갔다. 친일출신 경찰들에 대한 시민들의 분노는 매우 커져갔고, 경찰은 이에 대해 보복하는...</code> | <code>국채보상운동기념공원은 대구광역시 중구 동인동2가에 위치한 공원으로, 대구에서 발생한 국채보상운동의 시민정신을 기리기 위해 만들어졌습니다. 이 공원은 1998년 3월부터 1999년 12월까지 조성되었으며, 국채보상운동의 숭고한 정신을 기리고 시민들에게 휴식공간을 제공하기 위해 만들어졌습니다. 공원 내에는 달구벌 대종, 종각, 녹도, 편의시설 등이 있으며, 달구벌 대종은 향토의 얼과 정서가 담긴 맑고 밝은 소리를 내며 화합과 번영을 염원하는 대구시민들의 뜻을 전하기 위해 건조 설치되었습니다. 이 공원은 중앙도서관과 동인지하주차장 사이에 위치해 있으며, 시내가 가까워 연인들에게 인기 있는 데이트 장소입니다. 공원에는 청소년 놀이마당, 음악회, 전시회 등이 열리며, 달구벌대종 타종의식 행사가 매주 토요일에 실시됩니다. 국채보상운동기념공원은 대구시민들에게 휴식공간을 제공하고, 도심지 내 녹지공간을 확보하며, 시민의 안락한 휴식공간을 제공하는 것을 목표로 합니다.</code> |
|
537 |
+
| <code>마찰력은 이상적인 상태에서 접촉 면적과 관계가 없다</code> | <code>마찰력<br><br>교과서는 일반적으로 마찰력은 접촉면의 넓이에는 무관하다고 서술하나 이것은 접촉면이 이상적으로 매끄러운 경우에만 성립한다.</code> | <code>형상 유지성 특성이 좋은 제품은 접합부의 변색이 없다.</code> | <code>마찰력은 두 물체가 접촉하는 면에서 물체의 운동을 방해하는 힘이다. 마찰력의 양은 접촉면의 특성과 물질에 따라 달라지며, 접촉면의 넓이에 따라 영향을 받는다. 마찰력의 종류에는 정지 마찰력, 운동 마찰력, 회전 마찰력 등이 있다. 정지 마찰력은 물체가 움직이지 않을 때 발생하는 마찰력이고, 운동 마찰력은 물체가 움직일 때 발생하는 마찰력이다. 회전 마찰력은 물체가 회전할 때 발생하는 마찰력이다. 구름 마찰력은 물체가 접촉면에 대해 회전할 때 발생하는 마찰력이다. 구름 마찰력은 구름 마찰 계수와 수직 항력의 곱이며, 구름 마찰 계수는 정지 마찰 계수에 비해 50-100분의 1정도 작다.</code> | <code>또한 기본모드와 고차모드간에 변화도 거의 없는 것으로 입증되었다.</code> | <code>안경을 쓰고도 불편해하지 않는 이유</code> | <code>또한 단파면에서는 박리현상 및 주상구조와 같은 투과율 감소에 영항을 주는 현상은 발견되지 않았으며, \( \mathrm{ZnS} \) 기판과 DLC 코팅 사이의 접착성도 우수했다.</code> |
|
538 |
+
* Loss: [<code>CachedGISTEmbedLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#cachedgistembedloss) with these parameters:
|
539 |
+
```json
|
540 |
+
{'guide': SentenceTransformer(
|
541 |
+
(0): Transformer({'max_seq_length': 2048, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
|
542 |
+
(1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
|
543 |
+
(2): Normalize()
|
544 |
+
), 'temperature': 0.01}
|
545 |
+
```
|
546 |
+
|
547 |
+
### Training Hyperparameters
|
548 |
+
#### Non-Default Hyperparameters
|
549 |
+
|
550 |
+
- `per_device_train_batch_size`: 4096
|
551 |
+
- `learning_rate`: 2e-05
|
552 |
+
- `warmup_ratio`: 0.1
|
553 |
+
- `bf16`: True
|
554 |
+
|
555 |
+
#### All Hyperparameters
|
556 |
+
<details><summary>Click to expand</summary>
|
557 |
+
|
558 |
+
- `overwrite_output_dir`: False
|
559 |
+
- `do_predict`: False
|
560 |
+
- `eval_strategy`: no
|
561 |
+
- `prediction_loss_only`: True
|
562 |
+
- `per_device_train_batch_size`: 4096
|
563 |
+
- `per_device_eval_batch_size`: 8
|
564 |
+
- `per_gpu_train_batch_size`: None
|
565 |
+
- `per_gpu_eval_batch_size`: None
|
566 |
+
- `gradient_accumulation_steps`: 1
|
567 |
+
- `eval_accumulation_steps`: None
|
568 |
+
- `torch_empty_cache_steps`: None
|
569 |
+
- `learning_rate`: 2e-05
|
570 |
+
- `weight_decay`: 0.0
|
571 |
+
- `adam_beta1`: 0.9
|
572 |
+
- `adam_beta2`: 0.999
|
573 |
+
- `adam_epsilon`: 1e-08
|
574 |
+
- `max_grad_norm`: 1.0
|
575 |
+
- `num_train_epochs`: 3
|
576 |
+
- `max_steps`: -1
|
577 |
+
- `lr_scheduler_type`: linear
|
578 |
+
- `lr_scheduler_kwargs`: {}
|
579 |
+
- `warmup_ratio`: 0.1
|
580 |
+
- `warmup_steps`: 0
|
581 |
+
- `log_level`: passive
|
582 |
+
- `log_level_replica`: warning
|
583 |
+
- `log_on_each_node`: True
|
584 |
+
- `logging_nan_inf_filter`: True
|
585 |
+
- `save_safetensors`: True
|
586 |
+
- `save_on_each_node`: False
|
587 |
+
- `save_only_model`: False
|
588 |
+
- `restore_callback_states_from_checkpoint`: False
|
589 |
+
- `no_cuda`: False
|
590 |
+
- `use_cpu`: False
|
591 |
+
- `use_mps_device`: False
|
592 |
+
- `seed`: 42
|
593 |
+
- `data_seed`: None
|
594 |
+
- `jit_mode_eval`: False
|
595 |
+
- `use_ipex`: False
|
596 |
+
- `bf16`: True
|
597 |
+
- `fp16`: False
|
598 |
+
- `fp16_opt_level`: O1
|
599 |
+
- `half_precision_backend`: auto
|
600 |
+
- `bf16_full_eval`: False
|
601 |
+
- `fp16_full_eval`: False
|
602 |
+
- `tf32`: None
|
603 |
+
- `local_rank`: 0
|
604 |
+
- `ddp_backend`: None
|
605 |
+
- `tpu_num_cores`: None
|
606 |
+
- `tpu_metrics_debug`: False
|
607 |
+
- `debug`: []
|
608 |
+
- `dataloader_drop_last`: True
|
609 |
+
- `dataloader_num_workers`: 0
|
610 |
+
- `dataloader_prefetch_factor`: None
|
611 |
+
- `past_index`: -1
|
612 |
+
- `disable_tqdm`: False
|
613 |
+
- `remove_unused_columns`: True
|
614 |
+
- `label_names`: None
|
615 |
+
- `load_best_model_at_end`: False
|
616 |
+
- `ignore_data_skip`: False
|
617 |
+
- `fsdp`: []
|
618 |
+
- `fsdp_min_num_params`: 0
|
619 |
+
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
|
620 |
+
- `fsdp_transformer_layer_cls_to_wrap`: None
|
621 |
+
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
|
622 |
+
- `deepspeed`: None
|
623 |
+
- `label_smoothing_factor`: 0.0
|
624 |
+
- `optim`: adamw_torch
|
625 |
+
- `optim_args`: None
|
626 |
+
- `adafactor`: False
|
627 |
+
- `group_by_length`: False
|
628 |
+
- `length_column_name`: length
|
629 |
+
- `ddp_find_unused_parameters`: None
|
630 |
+
- `ddp_bucket_cap_mb`: None
|
631 |
+
- `ddp_broadcast_buffers`: False
|
632 |
+
- `dataloader_pin_memory`: True
|
633 |
+
- `dataloader_persistent_workers`: False
|
634 |
+
- `skip_memory_metrics`: True
|
635 |
+
- `use_legacy_prediction_loop`: False
|
636 |
+
- `push_to_hub`: False
|
637 |
+
- `resume_from_checkpoint`: None
|
638 |
+
- `hub_model_id`: None
|
639 |
+
- `hub_strategy`: every_save
|
640 |
+
- `hub_private_repo`: None
|
641 |
+
- `hub_always_push`: False
|
642 |
+
- `gradient_checkpointing`: False
|
643 |
+
- `gradient_checkpointing_kwargs`: None
|
644 |
+
- `include_inputs_for_metrics`: False
|
645 |
+
- `include_for_metrics`: []
|
646 |
+
- `eval_do_concat_batches`: True
|
647 |
+
- `fp16_backend`: auto
|
648 |
+
- `push_to_hub_model_id`: None
|
649 |
+
- `push_to_hub_organization`: None
|
650 |
+
- `mp_parameters`:
|
651 |
+
- `auto_find_batch_size`: False
|
652 |
+
- `full_determinism`: False
|
653 |
+
- `torchdynamo`: None
|
654 |
+
- `ray_scope`: last
|
655 |
+
- `ddp_timeout`: 1800
|
656 |
+
- `torch_compile`: False
|
657 |
+
- `torch_compile_backend`: None
|
658 |
+
- `torch_compile_mode`: None
|
659 |
+
- `dispatch_batches`: None
|
660 |
+
- `split_batches`: None
|
661 |
+
- `include_tokens_per_second`: False
|
662 |
+
- `include_num_input_tokens_seen`: False
|
663 |
+
- `neftune_noise_alpha`: None
|
664 |
+
- `optim_target_modules`: None
|
665 |
+
- `batch_eval_metrics`: False
|
666 |
+
- `eval_on_start`: False
|
667 |
+
- `use_liger_kernel`: False
|
668 |
+
- `eval_use_gather_object`: False
|
669 |
+
- `average_tokens_across_devices`: False
|
670 |
+
- `prompts`: None
|
671 |
+
- `batch_sampler`: batch_sampler
|
672 |
+
- `multi_dataset_batch_sampler`: proportional
|
673 |
+
|
674 |
+
</details>
|
675 |
+
|
676 |
+
### Training Logs
|
677 |
+
| Epoch | Step | Training Loss |
|
678 |
+
|:------:|:----:|:-------------:|
|
679 |
+
| 0.0175 | 1 | 1.3672 |
|
680 |
+
| 0.0351 | 2 | 1.3719 |
|
681 |
+
| 0.0526 | 3 | 0.7838 |
|
682 |
+
| 0.0702 | 4 | 0.7781 |
|
683 |
+
| 0.0877 | 5 | 0.7132 |
|
684 |
+
| 0.1053 | 6 | 0.6863 |
|
685 |
+
| 0.1228 | 7 | 0.6237 |
|
686 |
+
| 0.1404 | 8 | 0.618 |
|
687 |
+
| 0.1579 | 9 | 0.5955 |
|
688 |
+
| 0.1754 | 10 | 0.5661 |
|
689 |
+
| 0.1930 | 11 | 0.5436 |
|
690 |
+
| 0.2105 | 12 | 0.4991 |
|
691 |
+
| 0.2281 | 13 | 0.4889 |
|
692 |
+
| 0.2456 | 14 | 0.4727 |
|
693 |
+
| 0.2632 | 15 | 0.4647 |
|
694 |
+
| 0.2807 | 16 | 0.4476 |
|
695 |
+
| 0.2982 | 17 | 0.4387 |
|
696 |
+
| 0.3158 | 18 | 0.412 |
|
697 |
+
| 0.3333 | 19 | 0.415 |
|
698 |
+
| 0.3509 | 20 | 0.4068 |
|
699 |
+
| 0.3684 | 21 | 0.3895 |
|
700 |
+
| 0.3860 | 22 | 0.3793 |
|
701 |
+
| 0.4035 | 23 | 0.3753 |
|
702 |
+
| 0.4211 | 24 | 0.3858 |
|
703 |
+
| 0.4386 | 25 | 0.3735 |
|
704 |
+
| 0.4561 | 26 | 0.3733 |
|
705 |
+
| 0.4737 | 27 | 0.355 |
|
706 |
+
| 0.4912 | 28 | 0.3551 |
|
707 |
+
| 0.5088 | 29 | 0.3337 |
|
708 |
+
| 0.5263 | 30 | 0.3408 |
|
709 |
+
| 0.5439 | 31 | 0.3434 |
|
710 |
+
| 0.5614 | 32 | 0.3468 |
|
711 |
+
| 0.5789 | 33 | 0.3284 |
|
712 |
+
| 0.5965 | 34 | 0.3377 |
|
713 |
+
| 0.6140 | 35 | 0.333 |
|
714 |
+
| 0.6316 | 36 | 0.3319 |
|
715 |
+
| 0.6491 | 37 | 0.3214 |
|
716 |
+
| 0.6667 | 38 | 0.3258 |
|
717 |
+
| 0.6842 | 39 | 0.3225 |
|
718 |
+
| 0.7018 | 40 | 0.3192 |
|
719 |
+
| 0.7193 | 41 | 0.3121 |
|
720 |
+
| 0.7368 | 42 | 0.3164 |
|
721 |
+
| 0.7544 | 43 | 0.3021 |
|
722 |
+
| 0.7719 | 44 | 0.3166 |
|
723 |
+
| 0.7895 | 45 | 0.3093 |
|
724 |
+
| 0.8070 | 46 | 0.2968 |
|
725 |
+
| 0.8246 | 47 | 0.2972 |
|
726 |
+
| 0.8421 | 48 | 0.2914 |
|
727 |
+
| 0.8596 | 49 | 0.2951 |
|
728 |
+
| 0.8772 | 50 | 0.3059 |
|
729 |
+
| 0.8947 | 51 | 0.3011 |
|
730 |
+
| 0.9123 | 52 | 0.2908 |
|
731 |
+
| 0.9298 | 53 | 0.3001 |
|
732 |
+
| 0.9474 | 54 | 0.2987 |
|
733 |
+
| 0.9649 | 55 | 0.287 |
|
734 |
+
| 0.9825 | 56 | 0.2868 |
|
735 |
+
| 1.0 | 57 | 0.293 |
|
736 |
+
| 1.0175 | 58 | 0.2768 |
|
737 |
+
| 1.0351 | 59 | 0.2727 |
|
738 |
+
| 1.0526 | 60 | 0.2659 |
|
739 |
+
|
740 |
+
|
741 |
+
### Framework Versions
|
742 |
+
- Python: 3.10.12
|
743 |
+
- Sentence Transformers: 3.3.1
|
744 |
+
- Transformers: 4.47.0
|
745 |
+
- PyTorch: 2.4.0a0+3bcc3cddb5.nv24.07
|
746 |
+
- Accelerate: 0.34.2
|
747 |
+
- Datasets: 2.20.0
|
748 |
+
- Tokenizers: 0.21.0
|
749 |
+
|
750 |
+
## Citation
|
751 |
+
|
752 |
+
### BibTeX
|
753 |
+
|
754 |
+
#### Sentence Transformers
|
755 |
+
```bibtex
|
756 |
+
@inproceedings{reimers-2019-sentence-bert,
|
757 |
+
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
|
758 |
+
author = "Reimers, Nils and Gurevych, Iryna",
|
759 |
+
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
|
760 |
+
month = "11",
|
761 |
+
year = "2019",
|
762 |
+
publisher = "Association for Computational Linguistics",
|
763 |
+
url = "https://arxiv.org/abs/1908.10084",
|
764 |
+
}
|
765 |
+
```
|
766 |
+
|
767 |
+
<!--
|
768 |
+
## Glossary
|
769 |
+
|
770 |
+
*Clearly define terms in order to be accessible across audiences.*
|
771 |
+
-->
|
772 |
+
|
773 |
+
<!--
|
774 |
+
## Model Card Authors
|
775 |
+
|
776 |
+
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
|
777 |
+
-->
|
778 |
+
|
779 |
+
<!--
|
780 |
+
## Model Card Contact
|
781 |
+
|
782 |
+
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
|
783 |
+
-->
|
config.json
ADDED
@@ -0,0 +1,28 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"_name_or_path": "BAAI/bge-m3",
|
3 |
+
"architectures": [
|
4 |
+
"XLMRobertaModel"
|
5 |
+
],
|
6 |
+
"attention_probs_dropout_prob": 0.1,
|
7 |
+
"bos_token_id": 0,
|
8 |
+
"classifier_dropout": null,
|
9 |
+
"eos_token_id": 2,
|
10 |
+
"hidden_act": "gelu",
|
11 |
+
"hidden_dropout_prob": 0.1,
|
12 |
+
"hidden_size": 1024,
|
13 |
+
"initializer_range": 0.02,
|
14 |
+
"intermediate_size": 4096,
|
15 |
+
"layer_norm_eps": 1e-05,
|
16 |
+
"max_position_embeddings": 8194,
|
17 |
+
"model_type": "xlm-roberta",
|
18 |
+
"num_attention_heads": 16,
|
19 |
+
"num_hidden_layers": 24,
|
20 |
+
"output_past": true,
|
21 |
+
"pad_token_id": 1,
|
22 |
+
"position_embedding_type": "absolute",
|
23 |
+
"torch_dtype": "float32",
|
24 |
+
"transformers_version": "4.47.0",
|
25 |
+
"type_vocab_size": 1,
|
26 |
+
"use_cache": true,
|
27 |
+
"vocab_size": 250002
|
28 |
+
}
|
config_sentence_transformers.json
ADDED
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"__version__": {
|
3 |
+
"sentence_transformers": "3.3.1",
|
4 |
+
"transformers": "4.47.0",
|
5 |
+
"pytorch": "2.4.0a0+3bcc3cddb5.nv24.07"
|
6 |
+
},
|
7 |
+
"prompts": {},
|
8 |
+
"default_prompt_name": null,
|
9 |
+
"similarity_fn_name": "cosine"
|
10 |
+
}
|
model.safetensors
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:c18156e80caf8ff45eb84a24a853130c3bca03087ccb41b051f86e7556bae02c
|
3 |
+
size 2271064456
|
modules.json
ADDED
@@ -0,0 +1,20 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
[
|
2 |
+
{
|
3 |
+
"idx": 0,
|
4 |
+
"name": "0",
|
5 |
+
"path": "",
|
6 |
+
"type": "sentence_transformers.models.Transformer"
|
7 |
+
},
|
8 |
+
{
|
9 |
+
"idx": 1,
|
10 |
+
"name": "1",
|
11 |
+
"path": "1_Pooling",
|
12 |
+
"type": "sentence_transformers.models.Pooling"
|
13 |
+
},
|
14 |
+
{
|
15 |
+
"idx": 2,
|
16 |
+
"name": "2",
|
17 |
+
"path": "2_Normalize",
|
18 |
+
"type": "sentence_transformers.models.Normalize"
|
19 |
+
}
|
20 |
+
]
|
sentence_bert_config.json
ADDED
@@ -0,0 +1,4 @@
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"max_seq_length": 8192,
|
3 |
+
"do_lower_case": false
|
4 |
+
}
|
special_tokens_map.json
ADDED
@@ -0,0 +1,51 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"bos_token": {
|
3 |
+
"content": "<s>",
|
4 |
+
"lstrip": false,
|
5 |
+
"normalized": false,
|
6 |
+
"rstrip": false,
|
7 |
+
"single_word": false
|
8 |
+
},
|
9 |
+
"cls_token": {
|
10 |
+
"content": "<s>",
|
11 |
+
"lstrip": false,
|
12 |
+
"normalized": false,
|
13 |
+
"rstrip": false,
|
14 |
+
"single_word": false
|
15 |
+
},
|
16 |
+
"eos_token": {
|
17 |
+
"content": "</s>",
|
18 |
+
"lstrip": false,
|
19 |
+
"normalized": false,
|
20 |
+
"rstrip": false,
|
21 |
+
"single_word": false
|
22 |
+
},
|
23 |
+
"mask_token": {
|
24 |
+
"content": "<mask>",
|
25 |
+
"lstrip": true,
|
26 |
+
"normalized": false,
|
27 |
+
"rstrip": false,
|
28 |
+
"single_word": false
|
29 |
+
},
|
30 |
+
"pad_token": {
|
31 |
+
"content": "<pad>",
|
32 |
+
"lstrip": false,
|
33 |
+
"normalized": false,
|
34 |
+
"rstrip": false,
|
35 |
+
"single_word": false
|
36 |
+
},
|
37 |
+
"sep_token": {
|
38 |
+
"content": "</s>",
|
39 |
+
"lstrip": false,
|
40 |
+
"normalized": false,
|
41 |
+
"rstrip": false,
|
42 |
+
"single_word": false
|
43 |
+
},
|
44 |
+
"unk_token": {
|
45 |
+
"content": "<unk>",
|
46 |
+
"lstrip": false,
|
47 |
+
"normalized": false,
|
48 |
+
"rstrip": false,
|
49 |
+
"single_word": false
|
50 |
+
}
|
51 |
+
}
|
tokenizer.json
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:fb3c3b93c46fd5a8634e262e1b7de7da11a18b527aa2282b312952b692781dfd
|
3 |
+
size 17083053
|
tokenizer_config.json
ADDED
@@ -0,0 +1,56 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"added_tokens_decoder": {
|
3 |
+
"0": {
|
4 |
+
"content": "<s>",
|
5 |
+
"lstrip": false,
|
6 |
+
"normalized": false,
|
7 |
+
"rstrip": false,
|
8 |
+
"single_word": false,
|
9 |
+
"special": true
|
10 |
+
},
|
11 |
+
"1": {
|
12 |
+
"content": "<pad>",
|
13 |
+
"lstrip": false,
|
14 |
+
"normalized": false,
|
15 |
+
"rstrip": false,
|
16 |
+
"single_word": false,
|
17 |
+
"special": true
|
18 |
+
},
|
19 |
+
"2": {
|
20 |
+
"content": "</s>",
|
21 |
+
"lstrip": false,
|
22 |
+
"normalized": false,
|
23 |
+
"rstrip": false,
|
24 |
+
"single_word": false,
|
25 |
+
"special": true
|
26 |
+
},
|
27 |
+
"3": {
|
28 |
+
"content": "<unk>",
|
29 |
+
"lstrip": false,
|
30 |
+
"normalized": false,
|
31 |
+
"rstrip": false,
|
32 |
+
"single_word": false,
|
33 |
+
"special": true
|
34 |
+
},
|
35 |
+
"250001": {
|
36 |
+
"content": "<mask>",
|
37 |
+
"lstrip": true,
|
38 |
+
"normalized": false,
|
39 |
+
"rstrip": false,
|
40 |
+
"single_word": false,
|
41 |
+
"special": true
|
42 |
+
}
|
43 |
+
},
|
44 |
+
"bos_token": "<s>",
|
45 |
+
"clean_up_tokenization_spaces": true,
|
46 |
+
"cls_token": "<s>",
|
47 |
+
"eos_token": "</s>",
|
48 |
+
"extra_special_tokens": {},
|
49 |
+
"mask_token": "<mask>",
|
50 |
+
"model_max_length": 8192,
|
51 |
+
"pad_token": "<pad>",
|
52 |
+
"sep_token": "</s>",
|
53 |
+
"sp_model_kwargs": {},
|
54 |
+
"tokenizer_class": "XLMRobertaTokenizer",
|
55 |
+
"unk_token": "<unk>"
|
56 |
+
}
|
trainer_state.json
ADDED
@@ -0,0 +1,453 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"best_metric": null,
|
3 |
+
"best_model_checkpoint": null,
|
4 |
+
"epoch": 1.0526315789473684,
|
5 |
+
"eval_steps": 100,
|
6 |
+
"global_step": 60,
|
7 |
+
"is_hyper_param_search": false,
|
8 |
+
"is_local_process_zero": true,
|
9 |
+
"is_world_process_zero": true,
|
10 |
+
"log_history": [
|
11 |
+
{
|
12 |
+
"epoch": 0.017543859649122806,
|
13 |
+
"grad_norm": 44.84535598754883,
|
14 |
+
"learning_rate": 1.111111111111111e-06,
|
15 |
+
"loss": 1.3672,
|
16 |
+
"step": 1
|
17 |
+
},
|
18 |
+
{
|
19 |
+
"epoch": 0.03508771929824561,
|
20 |
+
"grad_norm": 46.05864715576172,
|
21 |
+
"learning_rate": 2.222222222222222e-06,
|
22 |
+
"loss": 1.3719,
|
23 |
+
"step": 2
|
24 |
+
},
|
25 |
+
{
|
26 |
+
"epoch": 0.05263157894736842,
|
27 |
+
"grad_norm": 9.057656288146973,
|
28 |
+
"learning_rate": 3.3333333333333333e-06,
|
29 |
+
"loss": 0.7838,
|
30 |
+
"step": 3
|
31 |
+
},
|
32 |
+
{
|
33 |
+
"epoch": 0.07017543859649122,
|
34 |
+
"grad_norm": 8.365191459655762,
|
35 |
+
"learning_rate": 4.444444444444444e-06,
|
36 |
+
"loss": 0.7781,
|
37 |
+
"step": 4
|
38 |
+
},
|
39 |
+
{
|
40 |
+
"epoch": 0.08771929824561403,
|
41 |
+
"grad_norm": 6.402659893035889,
|
42 |
+
"learning_rate": 5.555555555555557e-06,
|
43 |
+
"loss": 0.7132,
|
44 |
+
"step": 5
|
45 |
+
},
|
46 |
+
{
|
47 |
+
"epoch": 0.10526315789473684,
|
48 |
+
"grad_norm": 5.508246898651123,
|
49 |
+
"learning_rate": 6.666666666666667e-06,
|
50 |
+
"loss": 0.6863,
|
51 |
+
"step": 6
|
52 |
+
},
|
53 |
+
{
|
54 |
+
"epoch": 0.12280701754385964,
|
55 |
+
"grad_norm": 4.964734077453613,
|
56 |
+
"learning_rate": 7.77777777777778e-06,
|
57 |
+
"loss": 0.6237,
|
58 |
+
"step": 7
|
59 |
+
},
|
60 |
+
{
|
61 |
+
"epoch": 0.14035087719298245,
|
62 |
+
"grad_norm": 4.011112689971924,
|
63 |
+
"learning_rate": 8.888888888888888e-06,
|
64 |
+
"loss": 0.618,
|
65 |
+
"step": 8
|
66 |
+
},
|
67 |
+
{
|
68 |
+
"epoch": 0.15789473684210525,
|
69 |
+
"grad_norm": 3.7118031978607178,
|
70 |
+
"learning_rate": 1e-05,
|
71 |
+
"loss": 0.5955,
|
72 |
+
"step": 9
|
73 |
+
},
|
74 |
+
{
|
75 |
+
"epoch": 0.17543859649122806,
|
76 |
+
"grad_norm": 3.4124467372894287,
|
77 |
+
"learning_rate": 1.1111111111111113e-05,
|
78 |
+
"loss": 0.5661,
|
79 |
+
"step": 10
|
80 |
+
},
|
81 |
+
{
|
82 |
+
"epoch": 0.19298245614035087,
|
83 |
+
"grad_norm": 2.9919450283050537,
|
84 |
+
"learning_rate": 1.2222222222222224e-05,
|
85 |
+
"loss": 0.5436,
|
86 |
+
"step": 11
|
87 |
+
},
|
88 |
+
{
|
89 |
+
"epoch": 0.21052631578947367,
|
90 |
+
"grad_norm": 2.6217074394226074,
|
91 |
+
"learning_rate": 1.3333333333333333e-05,
|
92 |
+
"loss": 0.4991,
|
93 |
+
"step": 12
|
94 |
+
},
|
95 |
+
{
|
96 |
+
"epoch": 0.22807017543859648,
|
97 |
+
"grad_norm": 3.101696014404297,
|
98 |
+
"learning_rate": 1.4444444444444446e-05,
|
99 |
+
"loss": 0.4889,
|
100 |
+
"step": 13
|
101 |
+
},
|
102 |
+
{
|
103 |
+
"epoch": 0.24561403508771928,
|
104 |
+
"grad_norm": 2.632870674133301,
|
105 |
+
"learning_rate": 1.555555555555556e-05,
|
106 |
+
"loss": 0.4727,
|
107 |
+
"step": 14
|
108 |
+
},
|
109 |
+
{
|
110 |
+
"epoch": 0.2631578947368421,
|
111 |
+
"grad_norm": 2.158155679702759,
|
112 |
+
"learning_rate": 1.6666666666666667e-05,
|
113 |
+
"loss": 0.4647,
|
114 |
+
"step": 15
|
115 |
+
},
|
116 |
+
{
|
117 |
+
"epoch": 0.2807017543859649,
|
118 |
+
"grad_norm": 2.006129264831543,
|
119 |
+
"learning_rate": 1.7777777777777777e-05,
|
120 |
+
"loss": 0.4476,
|
121 |
+
"step": 16
|
122 |
+
},
|
123 |
+
{
|
124 |
+
"epoch": 0.2982456140350877,
|
125 |
+
"grad_norm": 2.096951961517334,
|
126 |
+
"learning_rate": 1.888888888888889e-05,
|
127 |
+
"loss": 0.4387,
|
128 |
+
"step": 17
|
129 |
+
},
|
130 |
+
{
|
131 |
+
"epoch": 0.3157894736842105,
|
132 |
+
"grad_norm": 1.9885540008544922,
|
133 |
+
"learning_rate": 2e-05,
|
134 |
+
"loss": 0.412,
|
135 |
+
"step": 18
|
136 |
+
},
|
137 |
+
{
|
138 |
+
"epoch": 0.3333333333333333,
|
139 |
+
"grad_norm": 1.9787037372589111,
|
140 |
+
"learning_rate": 1.9869281045751635e-05,
|
141 |
+
"loss": 0.415,
|
142 |
+
"step": 19
|
143 |
+
},
|
144 |
+
{
|
145 |
+
"epoch": 0.3508771929824561,
|
146 |
+
"grad_norm": 2.428654193878174,
|
147 |
+
"learning_rate": 1.973856209150327e-05,
|
148 |
+
"loss": 0.4068,
|
149 |
+
"step": 20
|
150 |
+
},
|
151 |
+
{
|
152 |
+
"epoch": 0.3684210526315789,
|
153 |
+
"grad_norm": 1.8156601190567017,
|
154 |
+
"learning_rate": 1.9607843137254903e-05,
|
155 |
+
"loss": 0.3895,
|
156 |
+
"step": 21
|
157 |
+
},
|
158 |
+
{
|
159 |
+
"epoch": 0.38596491228070173,
|
160 |
+
"grad_norm": 1.9325244426727295,
|
161 |
+
"learning_rate": 1.9477124183006536e-05,
|
162 |
+
"loss": 0.3793,
|
163 |
+
"step": 22
|
164 |
+
},
|
165 |
+
{
|
166 |
+
"epoch": 0.40350877192982454,
|
167 |
+
"grad_norm": 1.5293307304382324,
|
168 |
+
"learning_rate": 1.9346405228758173e-05,
|
169 |
+
"loss": 0.3753,
|
170 |
+
"step": 23
|
171 |
+
},
|
172 |
+
{
|
173 |
+
"epoch": 0.42105263157894735,
|
174 |
+
"grad_norm": 2.211817741394043,
|
175 |
+
"learning_rate": 1.9215686274509807e-05,
|
176 |
+
"loss": 0.3858,
|
177 |
+
"step": 24
|
178 |
+
},
|
179 |
+
{
|
180 |
+
"epoch": 0.43859649122807015,
|
181 |
+
"grad_norm": 1.7881850004196167,
|
182 |
+
"learning_rate": 1.908496732026144e-05,
|
183 |
+
"loss": 0.3735,
|
184 |
+
"step": 25
|
185 |
+
},
|
186 |
+
{
|
187 |
+
"epoch": 0.45614035087719296,
|
188 |
+
"grad_norm": 1.7260500192642212,
|
189 |
+
"learning_rate": 1.8954248366013074e-05,
|
190 |
+
"loss": 0.3733,
|
191 |
+
"step": 26
|
192 |
+
},
|
193 |
+
{
|
194 |
+
"epoch": 0.47368421052631576,
|
195 |
+
"grad_norm": 1.6085237264633179,
|
196 |
+
"learning_rate": 1.8823529411764708e-05,
|
197 |
+
"loss": 0.355,
|
198 |
+
"step": 27
|
199 |
+
},
|
200 |
+
{
|
201 |
+
"epoch": 0.49122807017543857,
|
202 |
+
"grad_norm": 2.8392181396484375,
|
203 |
+
"learning_rate": 1.869281045751634e-05,
|
204 |
+
"loss": 0.3551,
|
205 |
+
"step": 28
|
206 |
+
},
|
207 |
+
{
|
208 |
+
"epoch": 0.5087719298245614,
|
209 |
+
"grad_norm": 1.978279948234558,
|
210 |
+
"learning_rate": 1.8562091503267975e-05,
|
211 |
+
"loss": 0.3337,
|
212 |
+
"step": 29
|
213 |
+
},
|
214 |
+
{
|
215 |
+
"epoch": 0.5263157894736842,
|
216 |
+
"grad_norm": 2.016209125518799,
|
217 |
+
"learning_rate": 1.843137254901961e-05,
|
218 |
+
"loss": 0.3408,
|
219 |
+
"step": 30
|
220 |
+
},
|
221 |
+
{
|
222 |
+
"epoch": 0.543859649122807,
|
223 |
+
"grad_norm": 1.4631725549697876,
|
224 |
+
"learning_rate": 1.8300653594771242e-05,
|
225 |
+
"loss": 0.3434,
|
226 |
+
"step": 31
|
227 |
+
},
|
228 |
+
{
|
229 |
+
"epoch": 0.5614035087719298,
|
230 |
+
"grad_norm": 1.4324421882629395,
|
231 |
+
"learning_rate": 1.8169934640522876e-05,
|
232 |
+
"loss": 0.3468,
|
233 |
+
"step": 32
|
234 |
+
},
|
235 |
+
{
|
236 |
+
"epoch": 0.5789473684210527,
|
237 |
+
"grad_norm": 5.047348976135254,
|
238 |
+
"learning_rate": 1.8039215686274513e-05,
|
239 |
+
"loss": 0.3284,
|
240 |
+
"step": 33
|
241 |
+
},
|
242 |
+
{
|
243 |
+
"epoch": 0.5964912280701754,
|
244 |
+
"grad_norm": 1.515346884727478,
|
245 |
+
"learning_rate": 1.7908496732026146e-05,
|
246 |
+
"loss": 0.3377,
|
247 |
+
"step": 34
|
248 |
+
},
|
249 |
+
{
|
250 |
+
"epoch": 0.6140350877192983,
|
251 |
+
"grad_norm": 1.883217692375183,
|
252 |
+
"learning_rate": 1.7777777777777777e-05,
|
253 |
+
"loss": 0.333,
|
254 |
+
"step": 35
|
255 |
+
},
|
256 |
+
{
|
257 |
+
"epoch": 0.631578947368421,
|
258 |
+
"grad_norm": 1.6431008577346802,
|
259 |
+
"learning_rate": 1.7647058823529414e-05,
|
260 |
+
"loss": 0.3319,
|
261 |
+
"step": 36
|
262 |
+
},
|
263 |
+
{
|
264 |
+
"epoch": 0.6491228070175439,
|
265 |
+
"grad_norm": 1.630910873413086,
|
266 |
+
"learning_rate": 1.7516339869281047e-05,
|
267 |
+
"loss": 0.3214,
|
268 |
+
"step": 37
|
269 |
+
},
|
270 |
+
{
|
271 |
+
"epoch": 0.6666666666666666,
|
272 |
+
"grad_norm": 1.4808597564697266,
|
273 |
+
"learning_rate": 1.738562091503268e-05,
|
274 |
+
"loss": 0.3258,
|
275 |
+
"step": 38
|
276 |
+
},
|
277 |
+
{
|
278 |
+
"epoch": 0.6842105263157895,
|
279 |
+
"grad_norm": 1.6400136947631836,
|
280 |
+
"learning_rate": 1.7254901960784314e-05,
|
281 |
+
"loss": 0.3225,
|
282 |
+
"step": 39
|
283 |
+
},
|
284 |
+
{
|
285 |
+
"epoch": 0.7017543859649122,
|
286 |
+
"grad_norm": 1.3743259906768799,
|
287 |
+
"learning_rate": 1.7124183006535948e-05,
|
288 |
+
"loss": 0.3192,
|
289 |
+
"step": 40
|
290 |
+
},
|
291 |
+
{
|
292 |
+
"epoch": 0.7192982456140351,
|
293 |
+
"grad_norm": 1.4262139797210693,
|
294 |
+
"learning_rate": 1.6993464052287582e-05,
|
295 |
+
"loss": 0.3121,
|
296 |
+
"step": 41
|
297 |
+
},
|
298 |
+
{
|
299 |
+
"epoch": 0.7368421052631579,
|
300 |
+
"grad_norm": 1.4537426233291626,
|
301 |
+
"learning_rate": 1.686274509803922e-05,
|
302 |
+
"loss": 0.3164,
|
303 |
+
"step": 42
|
304 |
+
},
|
305 |
+
{
|
306 |
+
"epoch": 0.7543859649122807,
|
307 |
+
"grad_norm": 1.2737575769424438,
|
308 |
+
"learning_rate": 1.6732026143790852e-05,
|
309 |
+
"loss": 0.3021,
|
310 |
+
"step": 43
|
311 |
+
},
|
312 |
+
{
|
313 |
+
"epoch": 0.7719298245614035,
|
314 |
+
"grad_norm": 1.2681057453155518,
|
315 |
+
"learning_rate": 1.6601307189542486e-05,
|
316 |
+
"loss": 0.3166,
|
317 |
+
"step": 44
|
318 |
+
},
|
319 |
+
{
|
320 |
+
"epoch": 0.7894736842105263,
|
321 |
+
"grad_norm": 5.779806137084961,
|
322 |
+
"learning_rate": 1.647058823529412e-05,
|
323 |
+
"loss": 0.3093,
|
324 |
+
"step": 45
|
325 |
+
},
|
326 |
+
{
|
327 |
+
"epoch": 0.8070175438596491,
|
328 |
+
"grad_norm": 1.4256994724273682,
|
329 |
+
"learning_rate": 1.6339869281045753e-05,
|
330 |
+
"loss": 0.2968,
|
331 |
+
"step": 46
|
332 |
+
},
|
333 |
+
{
|
334 |
+
"epoch": 0.8245614035087719,
|
335 |
+
"grad_norm": 1.5250773429870605,
|
336 |
+
"learning_rate": 1.6209150326797387e-05,
|
337 |
+
"loss": 0.2972,
|
338 |
+
"step": 47
|
339 |
+
},
|
340 |
+
{
|
341 |
+
"epoch": 0.8421052631578947,
|
342 |
+
"grad_norm": 1.2680127620697021,
|
343 |
+
"learning_rate": 1.607843137254902e-05,
|
344 |
+
"loss": 0.2914,
|
345 |
+
"step": 48
|
346 |
+
},
|
347 |
+
{
|
348 |
+
"epoch": 0.8596491228070176,
|
349 |
+
"grad_norm": 1.6887532472610474,
|
350 |
+
"learning_rate": 1.5947712418300657e-05,
|
351 |
+
"loss": 0.2951,
|
352 |
+
"step": 49
|
353 |
+
},
|
354 |
+
{
|
355 |
+
"epoch": 0.8771929824561403,
|
356 |
+
"grad_norm": 2.2416443824768066,
|
357 |
+
"learning_rate": 1.5816993464052288e-05,
|
358 |
+
"loss": 0.3059,
|
359 |
+
"step": 50
|
360 |
+
},
|
361 |
+
{
|
362 |
+
"epoch": 0.8947368421052632,
|
363 |
+
"grad_norm": 1.3144830465316772,
|
364 |
+
"learning_rate": 1.568627450980392e-05,
|
365 |
+
"loss": 0.3011,
|
366 |
+
"step": 51
|
367 |
+
},
|
368 |
+
{
|
369 |
+
"epoch": 0.9122807017543859,
|
370 |
+
"grad_norm": 2.3271305561065674,
|
371 |
+
"learning_rate": 1.555555555555556e-05,
|
372 |
+
"loss": 0.2908,
|
373 |
+
"step": 52
|
374 |
+
},
|
375 |
+
{
|
376 |
+
"epoch": 0.9298245614035088,
|
377 |
+
"grad_norm": 1.2403310537338257,
|
378 |
+
"learning_rate": 1.5424836601307192e-05,
|
379 |
+
"loss": 0.3001,
|
380 |
+
"step": 53
|
381 |
+
},
|
382 |
+
{
|
383 |
+
"epoch": 0.9473684210526315,
|
384 |
+
"grad_norm": 2.7490832805633545,
|
385 |
+
"learning_rate": 1.5294117647058822e-05,
|
386 |
+
"loss": 0.2987,
|
387 |
+
"step": 54
|
388 |
+
},
|
389 |
+
{
|
390 |
+
"epoch": 0.9649122807017544,
|
391 |
+
"grad_norm": 2.321964979171753,
|
392 |
+
"learning_rate": 1.5163398692810458e-05,
|
393 |
+
"loss": 0.287,
|
394 |
+
"step": 55
|
395 |
+
},
|
396 |
+
{
|
397 |
+
"epoch": 0.9824561403508771,
|
398 |
+
"grad_norm": 1.1607296466827393,
|
399 |
+
"learning_rate": 1.5032679738562093e-05,
|
400 |
+
"loss": 0.2868,
|
401 |
+
"step": 56
|
402 |
+
},
|
403 |
+
{
|
404 |
+
"epoch": 1.0,
|
405 |
+
"grad_norm": 1.5422321557998657,
|
406 |
+
"learning_rate": 1.4901960784313726e-05,
|
407 |
+
"loss": 0.293,
|
408 |
+
"step": 57
|
409 |
+
},
|
410 |
+
{
|
411 |
+
"epoch": 1.0175438596491229,
|
412 |
+
"grad_norm": 1.5632988214492798,
|
413 |
+
"learning_rate": 1.4771241830065362e-05,
|
414 |
+
"loss": 0.2768,
|
415 |
+
"step": 58
|
416 |
+
},
|
417 |
+
{
|
418 |
+
"epoch": 1.0350877192982457,
|
419 |
+
"grad_norm": 1.620436668395996,
|
420 |
+
"learning_rate": 1.4640522875816994e-05,
|
421 |
+
"loss": 0.2727,
|
422 |
+
"step": 59
|
423 |
+
},
|
424 |
+
{
|
425 |
+
"epoch": 1.0526315789473684,
|
426 |
+
"grad_norm": 1.2848402261734009,
|
427 |
+
"learning_rate": 1.4509803921568629e-05,
|
428 |
+
"loss": 0.2659,
|
429 |
+
"step": 60
|
430 |
+
}
|
431 |
+
],
|
432 |
+
"logging_steps": 1,
|
433 |
+
"max_steps": 171,
|
434 |
+
"num_input_tokens_seen": 0,
|
435 |
+
"num_train_epochs": 3,
|
436 |
+
"save_steps": 12,
|
437 |
+
"stateful_callbacks": {
|
438 |
+
"TrainerControl": {
|
439 |
+
"args": {
|
440 |
+
"should_epoch_stop": false,
|
441 |
+
"should_evaluate": false,
|
442 |
+
"should_log": false,
|
443 |
+
"should_save": true,
|
444 |
+
"should_training_stop": false
|
445 |
+
},
|
446 |
+
"attributes": {}
|
447 |
+
}
|
448 |
+
},
|
449 |
+
"total_flos": 0.0,
|
450 |
+
"train_batch_size": 4096,
|
451 |
+
"trial_name": null,
|
452 |
+
"trial_params": null
|
453 |
+
}
|