M13 2025년 3월 Mac M 시리즈 성능 비교 Mac mini m4 가 너무 사고싶어서 정리한 m 시리즈 성능 비교 정보 입니다. 비교표칩코어 구성GPU 코어메모리대역폭메모리제조공정출시일가격가성비M14 성능 + 4 효율 = 8코어최대 8코어68.25GB/s16GB5nm2020년 11월 17일$699 (Mac Mini)매우높음M1 Pro최대 10코어 (8 성능 + 2 효율)최대 16코어200GB/s32GB5nm2021년 10월 26일$1,999 (MacBook Pro)높음M1 Max최대 10코어 (8 성능 + 2 효율)최대 32코어400GB/s64GB5nm2021년 10월 26일$2,899 (MacBook Pro)중간M24 성능 + 4 효율 = 8코어최대 10코어100GB/s24GB개선된 5nm2022년 7월$599 (Mac Mini)높음M2 Pro최.. 2025. 3. 26. [m1/mac/python/llama.cpp/llama2] 로컬에서 llama2 실행해보기 ( m1 맥북 ) python 으로 llama2 모델을 실행하기 맥북이 아니거나 나는 docker 로 모델을 실행하고 싶다면 docker 에서 llama2 실행하기를 보길 바람. llama.cpp 을 사용하여 실행할 것임. 언어 모델을 다운하기 meta 의 llama git 프로젝트 받기 원하는 경로에 llama git 을 클론하자. (https://github.com/facebookresearch/llama) 다운로드 요청 링크 받기 meta 의 llama 페이지에 가서 download models 를 누르면 정보를 입력하는 페이지가 나온다. (https://llama.meta.com/) 개인정보를 입력하고 사용할 모델을 선택하여 완료버튼을 누르면 입력한 이메일로 선택한 모델의 다운로드 요청 키가 발송된다. 이메일 내용.. 2024. 3. 13. [spring boot/python/llama2/docker] spring boot 프로젝트에 LLM (llama2) 사용해보기 - 0 서론 AI 산업이 커지고 있음을 느낀다. 나도 한번 AI 를 사용해보고 싶어졌다. chat GPT API 말고 로컬에서 돌아가는 언어 모델로 직접 서비스를 만들어 보고 싶다. 찾아보니 Llama2 라는 오픈소스 LLM 이 있다. -> meta의 llama2 대형 언어 모델인 만큼 학습시킬때 NVIDIA A100 GPU 를 사용한다고 한다. ( 2천만원대... ) 그래도 걱정말자 노트북에서도 실행할 수 있는 방법이 많이 있는 것 같다. 바로 삽질을 시작해 보자. 구성 나는 회사에서 서비스를 spring boot 로 개발하고 싶어하기 때문에 spring boot로 WAS를 구성해볼 생각이다. 그리고 모델에게 질문/응답을 vector 형식으로 해보라고 요청을 받았다. ( 아직 vector 형식이 무엇인지 자세.. 2024. 3. 13. 이전 1 다음