필자는 개인 정보 보호를 위해 로컬에 설치된 AI인 Ollama를 사용하며, MacOS에서 Ollama를 더욱 편리하게 활용하기 위해 무료 앱인 Msty를 추천합니다. Msty는 터미널이나 브라우저를 열 필요 없이 Ollama와 직접 상호작용할 수 있게 해주며, 분할 채팅, 응답 재생성, 채팅 복제, 여러 모델 추가 등의 다양한 기능을 제공합니다. 또한 실시간 데이터 호출, 지식 스택 생성, 프롬프트 라이브러리 등 고급 기능도 지원합니다.
Msty를 사용하려면 먼저 Ollama를 설치하고 실행해야 합니다. 그런 다음 Msty 웹사이트에서 Mac용 설치 파일을 다운로드하여 Applications 폴더에 추가합니다. 앱을 처음 실행하면 'Setup Local AI’를 클릭하여 필요한 구성 요소와 모델을 다운로드합니다. Ollama와 연결하려면 사이드바의 'Local AI Models’에서 Llama 3.2를 다운로드하고 모델 드롭다운에서 선택합니다.
또한 Msty에서는 모델 지시사항을 변경하여 AI를 의사, 작가, 회계사 등 다양한 역할로 활용할 수 있습니다. 중앙의 'Edit Model Instructions’를 클릭하고 원하는 지시사항을 선택하여 채팅에 적용하면 됩니다.
Msty는 Ollama를 활용하는 데 있어 매우 유용한 도구이며, 기본 사용법을 익힌 후 다양한 기능을 활용해 보기를 권장합니다.