머리말
V0가 등장한 이후 저는 V0와 비슷한 기능을 로컬에서 수행할 수 있는 솔루션을 찾고 있었습니다. Bolt가 오픈소스로 출시되었을 때 기대가 컸지만 Anthropic API 키가 필수라는 점에 실망감을 느꼈습니다. 저는 비용이 많이 드는 Anthropic 모델을 사용하지 않고 Gemini, Metrol, Olama와 같은 무료 API를 활용하고 싶었습니다.
하지만 이제 로컬에서 사용할 수 있는 훌륭한 툴이 등장했습니다. Bolt 오픈소스 릴리즈의 포크 버전으로, 훨씬 더 사용하기 쉽고 다양한 프로바이더를 지원하는 멋진 기능이 추가되었습니다.
Bolt Fork의 주요 기능
이 포크 버전은 다음과 같은 주요 기능을 제공합니다.
- Open Router 통합
- Gemini 통합
- AI 모델 지원
- 프로바이더별 모델 필터링
- Zip으로 프로젝트 다운로드
- 시스템 프롬프트 개선
- Deepseek API 통합
- Metrol API 통합
- OpenAI 호환 API 통합
- 로컬 폴더에 파일 동기화
- GitHub에 프로젝트 직접 게시
설치 및 구성
- 컴퓨터에 포크 버전 복제하기:
git clone https://github.com/sd-dev/bolt.git
- 복제한 폴더로 이동하기
- 다음 명령으로 의존성 설치하기:
pnpm install
.env.example
파일 이름을.env.local
로 변경하기.env.local
파일에 사용할 프로바이더(OpenAI, Anthropic, Deepseek, Metrol, Custom OpenAI Base URL)의 API 키 입력하기
로컬 로컬 사용
- 다음 명령으로 Bolt Fork 시작하기:
pnpm preview
- 로컬 호스트 및 포트 번호로 표시된 인터페이스 열기
- Metrol과 같은 무료 API 키를 사용하여 다양한 모델 선택하기
- 무료 API를 사용하여 코드 생성, 다운로드, 동기화, GitHub에 게시하기
GitHub Models Free API 사용
GitHub Models Free API를 사용하여 GPT-40을 포함한 다양한 모델에 무료로 액세스할 수 있습니다. 이를 위해 다음 단계를 따르세요.
- GitHub Models에 접속하여 API 키 가져오기
- LightLLM 설치하기:
npm install -g light-llm
- 다음 명령으로 LightLLM 서버 시작하기:
light-llm server --api-key <GitHub Models API 키>
- LightLLM 서버에서 URL 복사하기
- Bolt Fork의
.env.local
파일에 OpenAI Base URL로 복사한 URL 입력하기:
OPENAI_LIKE_BASE=https://generativelanguage.googleapis.com/v1beta2/models/<모델 ID>:generateText?key={{API 키}}
- Bolt Fork 다시 시작하기
- 인터페이스에서 OpenAI Like 옵션 선택하기
- LightLLM을 통해 구성한 모델 선택하기
결론
이 Bolt Fork는 무료 API를 사용하여 로컬에서 AI 기능을 활용할 수 있는 뛰어난 툴입니다. V0보다 100% 무료로 사용할 수 있어 매우 유용합니다. 무료 API를 사용하려는 분들에게 적극 추천합니다.