Bolt Fork의 놀라운 기능: 로컬에서 무료 API 사용, GitHub 통합


머리말

V0가 등장한 이후 저는 V0와 비슷한 기능을 로컬에서 수행할 수 있는 솔루션을 찾고 있었습니다. Bolt가 오픈소스로 출시되었을 때 기대가 컸지만 Anthropic API 키가 필수라는 점에 실망감을 느꼈습니다. 저는 비용이 많이 드는 Anthropic 모델을 사용하지 않고 Gemini, Metrol, Olama와 같은 무료 API를 활용하고 싶었습니다.

하지만 이제 로컬에서 사용할 수 있는 훌륭한 툴이 등장했습니다. Bolt 오픈소스 릴리즈의 포크 버전으로, 훨씬 더 사용하기 쉽고 다양한 프로바이더를 지원하는 멋진 기능이 추가되었습니다.

Bolt Fork의 주요 기능

이 포크 버전은 다음과 같은 주요 기능을 제공합니다.

  • Open Router 통합
  • Gemini 통합
  • AI 모델 지원
  • 프로바이더별 모델 필터링
  • Zip으로 프로젝트 다운로드
  • 시스템 프롬프트 개선
  • Deepseek API 통합
  • Metrol API 통합
  • OpenAI 호환 API 통합
  • 로컬 폴더에 파일 동기화
  • GitHub에 프로젝트 직접 게시

설치 및 구성

  1. 컴퓨터에 포크 버전 복제하기:
    git clone https://github.com/sd-dev/bolt.git
  2. 복제한 폴더로 이동하기
  3. 다음 명령으로 의존성 설치하기:
    pnpm install
  4. .env.example 파일 이름을 .env.local로 변경하기
  5. .env.local 파일에 사용할 프로바이더(OpenAI, Anthropic, Deepseek, Metrol, Custom OpenAI Base URL)의 API 키 입력하기

로컬 로컬 사용

  1. 다음 명령으로 Bolt Fork 시작하기:
    pnpm preview
  2. 로컬 호스트 및 포트 번호로 표시된 인터페이스 열기
  3. Metrol과 같은 무료 API 키를 사용하여 다양한 모델 선택하기
  4. 무료 API를 사용하여 코드 생성, 다운로드, 동기화, GitHub에 게시하기

GitHub Models Free API 사용

GitHub Models Free API를 사용하여 GPT-40을 포함한 다양한 모델에 무료로 액세스할 수 있습니다. 이를 위해 다음 단계를 따르세요.

  1. GitHub Models에 접속하여 API 키 가져오기
  2. LightLLM 설치하기:
    npm install -g light-llm
  3. 다음 명령으로 LightLLM 서버 시작하기:
    light-llm server --api-key <GitHub Models API 키>
  4. LightLLM 서버에서 URL 복사하기
  5. Bolt Fork의 .env.local 파일에 OpenAI Base URL로 복사한 URL 입력하기:
    OPENAI_LIKE_BASE=https://generativelanguage.googleapis.com/v1beta2/models/<모델 ID>:generateText?key={{API 키}}
  6. Bolt Fork 다시 시작하기
  7. 인터페이스에서 OpenAI Like 옵션 선택하기
  8. LightLLM을 통해 구성한 모델 선택하기

결론

이 Bolt Fork는 무료 API를 사용하여 로컬에서 AI 기능을 활용할 수 있는 뛰어난 툴입니다. V0보다 100% 무료로 사용할 수 있어 매우 유용합니다. 무료 API를 사용하려는 분들에게 적극 추천합니다.


Leave a Reply

Your email address will not be published. Required fields are marked *