01. [Gemma: Fine-Tunning] 국내 법률 자문 모델 구현
🐿️ 01. Intro
: 안녕하세요, 삐약 은지입니다 😆
오늘은 구글 머신러닝 부트캠프의 마지막 프로그램인 Gemma Sprint 프로그램에서
저희 팀이 만든 모델을 소개하고자 이렇게 블로깅을 하게되었습니다 ((부끄럽구먼!!!!
🐿️ 02. 뭐 만들었고, 왜 만들었는데??
: 우선 결론부터 말하자면,
저희 팀이 만든 모델은 "국내 법률 자문 모델"입니다
그렇다면 왜 이 모델을 만들었냐고 누군가 묻는다면..!!
대답해주는게 인지상정!!
죄송합니다.. ㅋㅋㅋ..
저희 팀이 이 모델을 만들게 된 이유는
"우리나라에서 법적인 문제에 대한 상담은 시간과 비용이 많이 들기에,
많은 사람들이 필요한 법률 자문을 받지 못하는 경우가 많기" 때문입니다
그래서 Gemma를 이용해서 한 번 만들어보자 해서 시작하게 되었습니다
🐿️ 03. 개발하는 동안...
: 소올직히..
저는 바야흐로 대학교 3학년 시절 GPT를 활용한 Fine-Tuning 프로젝트를 한 번 해보았기에,
"Gemma 쯤이야" 하는 마음으로 만만히 보고 시작했었습니다
그런데 생각보다 Gemma는 저에겐 만만치 않은 친구였습니다..
Gemma를 사용하신 분들이라면 아실겁니다
Hugging Face에 Token 넣는 그 코드를..
저희 팀은 아주 특별 했습니다 (?)
첫 시작부터 Token 넣자마자 빨간 그 분에게 붙잡히고 말았으니..
그래서 몇 시간을 에러 해결에 끙끙 거렸습니다
그리고 결국 해결했습니다((대단해..
이후에도 저희 팀은 완성까지 그 외에 여러 번의 에러와 데이트를 했습니다.
But, 오늘 10월 4일 프로젝트를 잘 마무리 지을 수 있었습니다
🐿️ 04. 그래서 모델 어딨는데??
: 저희가 만든 모델은 아래 링크와 같습니다
앗.. 참고로 저희 팀은 QLoRA를 이용하여 Fine-Tuning을 진행하였으며,
Hugging Face에 있는 "zzunyang/LawQA_LawSee" 데이터셋을 활용하였습니다 😋
Model: https://github.com/EunByu1/Domestic_Legal_Advice_Model/tree/main
+) 결과
a) [Before] Fine_Tuning
b) [After] Fine_Tuning
→ 글씨가 잘 안보이니, 사진 확대 추천!!!
🐿️ 05. 느낀점
: 만약 제가 구글 머신러닝 부트캠프에 참여하지 않았다면,
아마 Gemma를 사용해 법률 자문 모델을 구현할 기회가 없었을 것 같습니다 🤔
하지만 이번 부트캠프 덕분에 인공지능 기술을 깊이 있게 배울 수 있었고,
이를 바탕으로 Gemma를 Fine-Tuning하는 방법까지 익힐 수 있었습니다
(((이 과정은 저에게 아주 소중한 시간이었다고..!!!
비록 저희 팀이 만든 "국내 법률 자문 모델"이 완벽하지 않더라도,
이 프로젝트를 통해 많은 것을 배우고 성장할 수 있었습니다
지금까지 삐약은지의 Gemma Fine-Tuning 블로깅이었습니다아! ((엣헴!
오늘도 긴 글 읽어주셔서 감사합니다
그럼 모두 안녕~ 👋
[협업: 하은지, 권의영]
'Experience > Google ML BootCamp' 카테고리의 다른 글
02. [지원] Google ML BootCamp (3) | 2024.10.07 |
---|