올라마가 설치 되어있다고 가정을 하고 진행하겠습니다.
올라마 설치안되어있다면 그냥 설치하시면 되고.
1. 엑사원 설치하기
올라마 홈페이지에서 exaone 검색하면 바로 나오더라구요.
우측 상단에 있는 "ollama run exaone3.5" 이거 복사해서 바로 CMD에 입력하면 설치가 진행됩니다.
이렇게 바로 설치가 진행됩니다.
모델은 exaone3.5:7.8b 이겁니다. 7.8b이구요.
LLM(대형 언어 모델, Large Language Model)은 수많은 가중치(Weight)와 편향(Bias)이라는 파라미터로 구성되어 있는데,
이들은 모델이 학습 중에 조정하는 값들입니다.
이 값들이 많을수록 모델이 더 정밀하고 복잡한 패턴을 학습할 수 있게 됩니다.
이 모델은 7.8b 즉 78억개의 피라미터로 구성되어 있습니다.
저의 PC에는 DeepSeek-r1-14b도 설치되어있는데 이 친구는 140억개의 피라미터로 구성되어있겠죠?
엑사원 설치하고 각각 두 모델에게 같은 질문을 해서 어떤 답변을 하는지 보겠습니다.
엑사원 성능를 보여주는 표같은데 볼줄모르니까 패스하겠습니다.
2. DeepSeek-r1-14b 모델과 exaone 7.8b 모델 비교
질문은
모든 새는 날 수 있다. 펭귄은 새다. 따라서 펭귄도 날 수 있다.
이 주장에 논리적 오류가 있다면 설명해줘.
전제와 결론의 관계 해석 능력, 오류 식별 후 이유 설명을 하는지 보겠습니다.
엑사원 3.5 7.8b의 답변
위 사진내용은 엑사원 3.5 7.8b의 답변입니다.
아래 사진은 deepseek r1 14b의 답변이구요.
엄청 길죠. 영어로 답변하길래 다시 한국어로 보여달라고 해봤습니다.
딥시크는 어떤 생각을 하는지 논리적인 생각을 텍스트로도 보여주네요.
뭔가 신뢰가 가지 않나요?
아래는
한국어로 다시 작성해달라고했는데. 자세히 보시면 중간에 영어랑 한자가 섞여있습니다.
한국어에 대한 품질이 엑사원보다 떨어지는 모습을 보여줍니다.
Exaone 3.5 vs DeepSeek 14B 응답 비교 분석
두 개의 최신 대형 언어 모델 Exaone 3.5 (7.8B)와 DeepSeek 14B는 각기 다른 특성과 강점을 지니고 있습니다.
한국어 기반 질의에 대한 응답을 중심으로 표현력, 논리 구성력, 오류 설명력, 결론 도출 방식을 비교 분석해보겠습니다.
1. 한국어 자연스러움 비교
Exaone 3.5는 매우 자연스러운 문장 구조를 제공합니다. 문장 흐름이 매끄럽고, 어휘 선택이 사람처럼 직관적입니다.
예를 들어, “예외를 무시하기 때문에 잘못된 전제입니다”와 같은 문장은 명확하고 직관적입니다.
DeepSeek 14B는 “penguin이까지 적용된다” 또는 “genuine 포함시킨다” 처럼 영어 단어가 한국어 중간에 끼어 있는 경우가 잦고, 문장 부호가 어색한 경우도 있습니다. 이는 기계 번역 같은 느낌을 주며, 가독성이 떨어지는 단점이 있습니다.
2. 논리 구성력 분석
DeepSeek 14B는 논리 전개가 전제1, 전제2, 결론 구조로 명확하게 구성됩니다. 일반화 오류, 성급한 결론 등 논리학 용어를 사용하며 마치 강의식 설명을 제공합니다.
Exaone 3.5는 형식을 나누지 않고도 전체 흐름이 전제 → 문제 제기 → 결론으로 자연스럽게 이어집니다.
논리학 용어보다는 일상적 언어를 활용해 직관적으로 이해시키는 데 강점을 보입니다.
3. 오류 개념 설명 방식
Exaone 3.5는 오류를 간결하게 “예외 무시”로 요약하고, 펭귄은 날 수 없는 새라는 예시로 직관적 이해를 돕습니다.
DeepSeek 14B는 두 가지 오류 유형(일반화 오류, 성급한 결론)을 구분하고 학문적으로 접근합니다.
그러나 같은 문장이 반복되거나 표현이 장황해 집중력이 떨어질 수 있는 단점이 있습니다.
4. 결론 도출 방식
Exaone: “모든 새는 날 수 있다는 일반화는 펭귄과 같은 예외를 무시했기 때문에 오류이다.”
DeepSeek: “모든 새는 날 수 있다는 주장을 penguin에게까지 적용하는 것은 논리적 오류이며,
이는 일반화 오류 또는 성급한 결론으로 분류된다.”
→ Exaone은 명확하고 실용적인 언어를, DeepSeek은 학술적인 분석 어조를 사용합니다.
5. 종합 비교 요약
항목 | Exaone 3.5 (7.8B) | DeepSeek 14B |
---|---|---|
한국어 자연스러움 | 매우 우수 | 중간에 영어·한자 혼입 |
논리 구성력 | 직관적 | 전제-결론 분리, 구조화 |
오류 설명력 | 비유적, 실용적 | 명확한 오류 분류 |
가독성 / 친근함 | 일반 사용자 친화적 | 번역체 느낌 |
전문성 | 중급 | 논리 전공자 수준 |
6. 어떤 모델을 선택할까?
Exaone 3.5는 일반 사용자, 학생, 실용적인 응답에 더 적합합니다.
문장이 자연스럽고 직관적인 설명을 제공하므로 교육이나 블로그, 강의 보조 자료로도 좋습니다.
DeepSeek 14B는 논리학적 분석, 연구, 논문 작성과 같은 학문적인 목적에 강점을 보입니다. 다만 설명이 다소 장황할 수 있으므로 독자의 이해 수준에 따라 적절한 선택이 필요합니다.
당신이라면 어떤 모델을 선택하시겠습니까? 아래 댓글로 생각을 나눠주세요.
'개발 & 코딩' 카테고리의 다른 글
파이썬 if문과 while문 기초 및 실습 예제 (0) | 2025.06.21 |
---|---|
파이썬으로 파일 자동 분류 프로그램 만들기 (1) | 2025.06.20 |
Python OCR 이미지 텍스트 인식 성능 알아보기 (0) | 2025.06.19 |
AI 지뢰찾기 - Cursor와 Windsurf를 활용한 100x100 지뢰찾기 AI (0) | 2025.06.15 |
파이썬 tkinter 계산기 코드, 한 줄 한 줄 해석해드립니다 (0) | 2025.03.30 |