내 맥북 스펙은 아래와 같다.
MacBook Pro 16 (M3 Max, 36GB RAM)
빠른 응답을 위해선 7B 파라미터를 추천한다.
하지만 복잡한 논리 전개나 긴 맥락 이해에서는 한계가 있다.
ollama run deepseek-r1:7b
논리 전개를 위해서 14B 파라미터 모델을 추천한다.
사실 M3 Max 정도 스펙이면 이를 아주 무난한게 돌릴 수 있다.
ollama run deepseek-r1:14b
30B 이상은 긴 대기 시간이 발생될 수 있기에 대신 웹 서비스를 사용하는 것이 좋아 보인다.