AI 동향: 초현실 립싱크, GPT-4o 능가 이미지 편집기, 최강 오픈소스 모델 Quen 3 등장!



YOUTUBE URL: https://youtu.be/XoBpd0toZMk




AI 동향: 초현실 립싱크, GPT-4o 능가 이미지 편집기, 최강 오픈소스 모델 Quen 3 등장!

잠들지 않는 AI: 이번 주 주목해야 할 최신 AI 기술 총정리

AI는 잠들지 않습니다. 이번 주 역시 AI 분야는 눈부신 발전을 거듭하며 놀라운 소식들로 가득했습니다. 초현실적인 딥페이크 립싱크 도구부터, 구글 Gemini나 OpenAI의 GPT-4o보다 뛰어나다고 평가받는 이미지 편집기, 강력한 성능의 새로운 오픈소스 대규모 언어 모델(LLM)과 딥 리서치 도구까지, 그야말로 ‘미쳤다’는 말이 절로 나올 정도입니다. 스마트폰에서도 실행 가능한 비디오 객체 분할 기술, 비디오 속 인물의 옷을 자연스럽게 바꿔주는 AI 등 흥미로운 기술들이 연이어 공개되었습니다. 지금부터 이번 주 AI 세계를 뜨겁게 달군 주요 소식들을 자세히 살펴보겠습니다.

Edgetam: 스마트폰에서도 가능한 초소형 비디오 객체 추적 AI

가장 먼저 소개할 유용한 AI는 ‘Edgetam’입니다. 이 AI는 비디오 속 어떤 객체든 찾아내고 추적할 수 있습니다. 무엇보다 놀라운 점은 이 모델이 매우 작아서 스마트폰이나 일반 소비자 기기에서도 직접 실행할 수 있다는 것입니다. 사용법도 간단합니다.

  • 비디오를 업로드합니다.
  • 첫 프레임에서 추적하고 싶은 객체를 클릭합니다. (여러 지점을 클릭하여 원하는 객체 전체를 정확히 선택할 수 있습니다.)
  • 모델이 객체의 마스크(윤곽선)를 생성하고, 비디오 전체에 걸쳐 해당 객체를 계속 추적합니다.

예를 들어, 복잡한 춤을 추는 댄서를 추적하는 경우, 여러 포인트를 찍어 머리, 몸통뿐 아니라 바지까지 정확하게 선택하면, 격렬한 움직임에도 불구하고 AI가 댄서를 성공적으로 분할하고 추적하는 것을 볼 수 있습니다. 다른 예시에서는 오른쪽에 있는 남자를 선택해도 매우 정확하게 분할 및 추적을 수행합니다.

Edgetam은 ‘SAM 2’라는 다른 분할 도구를 기반으로 하지만, SAM 2보다 22배 더 빠르게 실행되도록 개선되었습니다. 아이폰 15 Pro Max에서 양자화(quantization) 없이 초당 16프레임(FPS)을 달성할 정도로 효율성이 극대화되었습니다. 이는 노트북, 스마트폰 등 일반 기기에서도 충분히 활용 가능함을 의미합니다.

다만, Edgetam은 효율성에 초점을 맞추었기 때문에, 다양한 벤치마크에서 SAM 2나 SAM 2.1보다는 분할 정확도 면에서 약간 뒤처집니다. 연구진들은 품질뿐만 아니라 효율성을 동시에 추구했기 때문입니다. 하지만 효율성 측면에서는 압도적입니다. 다른 비디오 분할 모델들은 아이폰에서 실행조차 불가능하거나, SAM 2의 경우 0.7 FPS에 불과하여 실사용이 어렵습니다. 반면 Edgetam은 아이폰에서 16 FPS를 구현하여, 모바일 기기에서 효과적인 비디오 분할을 가능하게 한 최초의 AI 모델일 수 있습니다.

개발자들을 위해 이미 GitHub 저장소가 공개되어 로컬 환경에서 다운로드하고 사용하는 방법에 대한 모든 지침이 포함되어 있습니다.

ICEdit: Gemini와 GPT-4o를 능가하는 자연어 이미지 편집기

‘In-Context Edit’의 약자인 ‘ICEdit’는 자연어만으로 이미지를 편집할 수 있는 강력한 AI입니다. 예를 들어, 원본 이미지에 “holding a cup of tea, eyes closed(차 한 잔 들고 눈 감기)”라고 프롬프트를 입력하면, 정말로 인물의 눈을 감기고 차를 들게 만듭니다. 다이아몬드 귀걸이와 금색 루비 왕관을 씌우거나, 머리색을 짙은 녹색으로 바꾸고 옷을 체크무늬로 바꾸는 것도 가능합니다. 심지어 배경을 해변으로 바꾸고 하늘에 다채로운 구름을 추가하거나, 이미지를 수채화 그림으로 변환할 수도 있습니다.

편집을 단계적으로 진행할 수도 있습니다. 원본 이미지의 배경을 하와이로 변경한 후, 다음 단계에서 인물의 복장을 알로하 셔츠와 하와이안 반바지로 바꾸고 서핑보드를 타게 할 수 있습니다. 그 다음에는 소년을 스폰지밥으로 바꾸고 만화책 스타일로 만들 수도 있으며, 마지막으로 이미지 하단에 “Aloha Hawaii”라는 텍스트를 추가하는 것도 가능합니다.

다른 예시들도 인상적입니다. 저녁 풍경에 불타는 장면을 추가하거나, 원본 사진의 건물을 에펠탑으로 교체할 수 있습니다. 이미지에서 보라색 꽃잎이나 워터마크를 제거하는 것도 가능하며, 사진 속 강아지를 제거하는 작업도 (약간의 흔적이 남긴 하지만) 꽤 잘 수행합니다. 연필 스케치, 수채화, 애니메이션 일러스트 스타일로 변환하거나, 인물의 표정을 바꾸는 것(예: 코비 브라이언트가 미소 짓게 만들기)도 가능합니다. 소화전에서 물이 쏟아지는 장면이나 눈 내리는 풍경을 사실적으로 생성하는 능력도 뛰어납니다. 테이블 위의 다른 물체들은 그대로 유지하면서 테이블 자체만 플라스틱 재질로 바꾸는 놀라운 편집 능력도 보여줍니다.

가장 놀라운 점은 ICEdit이 이미지 편집 분야에서 최고 수준으로 평가받는 구글의 Gemini나 OpenAI의 GPT-4o보다도 뛰어난 성능을 보인다는 주장입니다. 예를 들어 여성에게 핑크색 선글라스를 추가하는 테스트에서 Gemini는 꽤 잘 해냈지만, GPT-4o는 얼굴을 완전히 바꿔버렸습니다. 반면 ICEdit은 흠잡을 데 없이 자연스러운 결과를 보여주었습니다. 수채화 변환, 왕관 추가, 옷 변경 등의 다른 비교에서도 ICEdit은 원본의 특징(얼굴, 포즈 등)을 일관성 있게 유지하면서 요청된 편집을 가장 정확하고 자연스럽게 수행했습니다.

직접 사용해 볼 수 있도록 무료 Hugging Face Space 데모가 공개되었습니다. 이미지를 업로드하고 편집을 원하는 내용을 프롬프트로 입력하면 됩니다. 주커버그 사진에 빨간 비키니를 입히거나, 자동차 사진의 색을 파란색으로 바꾸고 나무를 벚꽃으로 바꾸는 등의 복잡한 요청도 약 10초 만에 빠르게 처리하며 인상적인 결과를 보여줍니다. 혀를 내밀고 눈을 감는 표정 변화도 시도해 볼 수 있습니다.

Hugging Face 데모 외에도 GitHub 저장소가 공개되어 로컬 컴퓨터에서 다운로드하고 실행하는 방법이 안내되어 있으며, 이미 ComfyUI에 통합된 버전도 제공됩니다.

Hydream E1: 또 다른 강력한 오픈소스 이미지 편집기의 등장

놀랍게도 이번 주에는 또 다른 자연어 기반 이미지 편집기가 공개되었습니다. 바로 ‘Hydream E1’입니다. 이 AI는 현재 최고의 오픈소스 이미지 생성 모델로 평가받는 Vivigo AI의 ‘Hydream’을 기반으로 하며, 검열되지 않은(uncensored) 오픈소스라는 특징을 가집니다.

Hydream E1은 Hydream 기본 모델 위에 구축되어 프롬프트만으로 이미지를 편집할 수 있게 해줍니다. 예를 들어, 원본 이미지 속 인물의 머리카락을 빨간색으로 바꾸거나, 지브리 스타일로 변환할 수 있습니다. 선글라스를 추가하거나, 사진을 스케치 또는 디즈니 픽사 스타일로 바꾸는 것도 가능합니다. 사과 이미지를 오렌지로 바꾸거나, 나무 테이블을 대리석으로 변경하는 등, 프롬프트를 정확히 이해하고 이미지 내 특정 객체를 변경하는 데 능숙합니다.

케이크 위의 글자를 “Level 30 Unlocked”로 바꾸거나, 풍경 사진에 가을 낙엽을 추가하고, 이미지를 큐비즘 회화 스타일로 변경하는 등 다양한 편집이 가능합니다. OmniGen, Magic Brush, Gemini 등 다른 AI 이미지 편집기와의 비교 평가에서 Hydream E1이 평균적으로 더 나은 성능을 보인다고 합니다.

Hydream E1 역시 모든 것이 공개되었습니다. GitHub 저장소에는 로컬 컴퓨터에서 다운로드하고 실행하는 방법에 대한 지침이 포함되어 있으며, 모델 링크는 이미 Hugging Face에 올라와 있습니다.

Fantasy Talking: 사진 한 장으로 만드는 초현실적인 딥페이크 립싱크 비디오

다음으로 소개할 AI는 ‘Fantasy Talking’입니다. 이 도구는 단 한 장의 인물 사진과 오디오 클립만 있으면, 해당 인물이 오디오에 맞춰 말하는 사실적인 영상을 생성합니다. 어떤 인물이나 캐릭터든 딥페이크 비디오를 만드는 데 유용합니다.

단순한 립싱크를 넘어 사진 전체에 생동감을 불어넣습니다. 인물의 머리와 몸 전체가 움직이고, 배경의 비나 군중까지 애니메이션화됩니다. 손과 손가락의 움직임까지 자연스럽게 표현하여 전체 장면을 매우 현실적으로 만듭니다 (심지어 손가락 5개도 정확하게 표현됩니다). 말하는 내용에 맞춰 표정 변화까지 적용되어 더욱 사실적인 딥페이크 립싱크 결과를 제공합니다.

사실적인 사진뿐만 아니라 3D 픽사 스타일 캐릭터나 동물 캐릭터에도 적용 가능합니다. 최고의 딥페이크 립싱크 도구 중 하나로 알려진 바이트댄스(ByteDance)의 ‘Omnihuman’과 비교했을 때, Fantasy Talking은 립싱크 정확도 면에서는 다소 아쉬울 수 있지만, 무료 오픈소스라는 강력한 장점을 가집니다. (Omnihuman은 현재 온라인 플랫폼에서만 사용 가능합니다.) 그럼에도 불구하고 두 도구 모두 이미지 한 장으로 전체 인물과 배경을 애니메이션화하여 매우 자연스러운 비디오를 생성할 수 있습니다.

Fantasy Talking은 알리바바에서 개발했으며, 현재 최고의 오픈소스 비디오 생성 모델인 알리바바의 ‘Wand 2.1’을 기반으로 합니다. 모든 것이 이미 공개되어 있으며, GitHub 저장소를 통해 로컬 설치 및 사용 방법을 확인할 수 있습니다. 또한 ComfyUI에도 이미 통합되어 있어 기존 사용자들은 쉽게 이 새로운 기능을 추가할 수 있습니다.

Gamma: AI 기반 콘텐츠 제작 플랫폼 (소개)

이번 주 소식에는 AI 기반 콘텐츠 제작 플랫폼 ‘Gamma’에 대한 언급도 있었습니다. Gamma는 프레젠테이션, 웹사이트, 소셜 미디어 콘텐츠 등을 AI를 활용하여 쉽게 만들 수 있는 도구입니다. 마케터, 에이전시, 교육자, 컨설턴트 등 많은 콘텐츠를 제작해야 하는 사람들에게 유용한 올인원 플랫폼으로 소개되었습니다. 디자인 기술이 없어도 간단한 프롬프트만으로 멋진 세일즈 덱, 웹사이트 홈페이지, 소셜 미디어 캐러셀 등을 몇 분 만에 만들 수 있다고 합니다. Google Slides나 PowerPoint로 내보내거나 링크 공유, Gamma 내에서 직접 발표하는 기능도 제공합니다. 5천만 명 이상의 사용자를 확보했으며, 최근 사용자 경험과 AI 성능을 개선하기 위해 사이트를 개편했다고 합니다.

Quen 3: 현존 최고의 오픈소스 LLM, 알리바바의 야심작

이번 주 가장 주목할 만한 발표 중 하나는 알리바바의 ‘Quen 3′(치엔 3) 출시입니다. 이는 완전히 오픈소스인 하이브리드 추론 모델 제품군입니다. 놀라운 점은 특히 수학, 코딩, 추론 작업에서 OpenAI, 구글, Deepseek 등 선두 기업들의 모델과 동등하거나 능가하는 성능을 보인다는 것입니다.

  • 벤치마크 성능: Live CodeBench, CodeForces, BFCL(함수 호출 및 도구 사용 테스트) 등 여러 벤치마크에서 Quen 3의 가장 큰 버전이 OpenAI의 gpt-3.5-turbo-0125, Grok-1, Gemini 1.5 Pro 등을 능가하는 점수를 기록했습니다.
  • 모델 다양성: 0.6B 파라미터부터 235B 파라미터의 전문가 혼합(MoE) 아키텍처까지 다양한 크기의 모델로 구성됩니다. 작은 모델(5B 미만)은 스마트폰이나 노트북 같은 일상적인 기기에서 로컬로 무료 및 오프라인 사용이 가능하여, GPT 수준의 챗봇을 개인 기기에서 활용할 잠재력을 가집니다.
  • 하이브리드 추론: ChatGPT의 ‘Reasoning’ 기능이나 Gemini의 ‘Thinking’ 모드처럼 ‘사고(Thinking)’ 모드를 켜고 끌 수 있습니다. 사고 모드를 켜면 최종 답변을 내놓기 전에 단계별로 추론하는 시간을 가지므로 복잡한 문제 해결에 이상적입니다. 끄면 더 간단한 질문에 대해 즉각적인 답변을 제공합니다.
  • 다국어 지원: 119개 언어 및 방언을 지원하여 다국어 작업에 매우 유용합니다.
  • 오픈소스 라이선스: Apache 2.0 라이선스로 공개되어 상업적 용도를 포함하여 최소한의 제한만으로 자유롭게 사용할 수 있습니다.

독립적인 리더보드(Artificial Analysis, Abacus AI의 LiveBench)에서도 Quen 3의 가장 큰 버전이 이전 리더였던 Deepseek Coder V2를 제치고 최고의 오픈소스 모델로 평가받았습니다. 심지어 Gemini 1.5 Flash, Claude 3 Sonnet, GPT-4-Turbo-Preview와 같은 일부 비공개 소스 모델보다도 높은 점수를 기록했습니다. 또한, 토큰당 비용 측면에서 매우 저렴하여 성능 대비 비용 효율성 면에서 최고의 선택지로 부상했습니다.

모든 모델은 Hugging Face 또는 ModelScope를 통해 공개되었으며, GitHub 저장소에는 Olama나 LM Studio 등 다양한 플랫폼에서 로컬로 실행하는 방법이 안내되어 있습니다. 로컬 설치 없이 온라인 플랫폼 ‘Quen Chat’을 통해 무료로 사용해 볼 수도 있습니다. Quen Chat에서 사고 모드를 켜고 크레아틴의 건강상의 이점과 잠재적 위험에 대해 질문하자, 모델이 답변을 생성하기 전에 이점, 위험, 주의 대상, 상호작용 등을 단계별로 깊이 생각하는 과정을 보여주었습니다.

Quen 3는 현재 사용 가능한 AI 모델 중 최고 수준의 성능을 보여주며, 특히 코딩, 추론, 에이전트 작업에서 강력한 모습을 보입니다. 구글, OpenAI, Anthropic 등이 폐쇄적인 모델을 유료로 제공하는 상황에서 알리바바가 이처럼 강력한 모델을 오픈소스로 공개한 것은 매우 인상적입니다.

Microsoft Phi-4: 작지만 강력한 추론 능력, 소형 AI 모델의 진화

마이크로소프트 역시 이번 주 ‘Phi-4′(파이-4)를 출시했습니다. 이는 단계별 사고를 통해 복잡한 문제를 해결하는 데 특히 능숙한 소형 추론 모델 제품군입니다. Quen 3와 마찬가지로 어려운 수학, 과학, 코딩 문제 처리에 강점을 보입니다.

  • 모델 종류: Phi-4, Phi-4-reasoning, Phi-4-reasoning-plus의 세 가지 모델로 구성됩니다. ‘reasoning’ 모델은 AI가 더 오래, 단계별로 생각하게 하여 복잡한 작업 해결에 유용하며, ‘reasoning plus’는 더 깊은 사고를 위해 더 많은 컴퓨팅 및 사고 시간을 할당합니다.
  • 작은 크기: 각 모델은 14B(140억) 파라미터 크기로 매우 작아 노트북이나 모바일 기기에서 실행할 잠재력을 가집니다.
  • 성능: Phi-4 추론 모델들은 최첨단(state-of-the-art) 수준은 아니지만, 최고의 모델들에 상당히 근접한 성능을 보입니다. 이는 14B라는 작은 크기를 고려할 때 매우 인상적입니다. (참고로 Deepseek Coder V2는 67B, gpt-3.5-turbo나 Gemini Pro는 수백억~수천억 파라미터로 추정됩니다.) 여러 벤치마크(AIM, Math, GPQA Diamond 등)에서 GPT-4o나 gpt-3.5-turbo-0125와 비슷한 점수를 기록했습니다.

모든 모델은 Azure AI 또는 Hugging Face를 통해 다운로드하여 로컬에서 실행할 수 있도록 공개되었습니다. Hugging Face에는 이미 Phi-4를 무료로 사용할 수 있는 다양한 Space들이 마련되어 있습니다. 데모를 통해 크레아틴에 대한 질문을 해보니, Quen 3와 유사하게 답변 생성 전 심층적인 사고 과정을 거치고 웹 검색을 통해 사실 확인까지 수행하는 모습을 보여주었습니다.

Phi-4는 일반 소비자 기기에서도 실행 가능한 또 하나의 매우 유용하고 작은 오픈소스 모델입니다.

WebThinker: Perplexity 대항마? 오픈소스 딥 리서치 AI 에이전트

Perplexity AI나 OpenAI의 Deep Research, Gemini의 Deep Research와 유사한 기능을 하는 무료 오픈소스 도구 ‘WebThinker’도 등장했습니다. 이 AI는 스스로 인터넷을 검색하고, 웹 페이지를 읽고, 연구 보고서를 작성할 수 있습니다.

데모를 보면, “OpenAI의 모델들은 무엇이며 차이점은 무엇인가?” 또는 “2025년에 제출 가능한 AI 분야 최고의 컨퍼런스는 무엇인가?”와 같은 질문에 대해 WebThinker는 자율적으로 웹을 검색하여 필요한 정보를 수집합니다. 정보를 단순히 찾는 것을 넘어, 집계하고 교차 참조하며 정보의 정확성을 검증합니다. 검색 결과가 부족하다고 판단되면 스스로 검색어를 구체화하거나 확장하여 더 나은 답변을 찾으려고 시도하는 등, 자율적인 AI 에이전트로서 작동합니다. 웹 검색, 정보 편집, 사실 확인, 정보 종합 등 여러 단계를 자율적으로 수행하며 최종적으로 잘 정리된 보고서를 제공합니다.

이 과정은 일반적인 챗봇이나 Quen 3, Phi-4와 같은 ‘사고하는’ 챗봇보다 훨씬 철저합니다. WebThinker는 필요한 모든 정보를 찾을 때까지 웹 검색, 데이터 종합, 응답 평가, 계획 수정 등의 과정을 반복하는 에이전트 팀을 배치하는 것과 같습니다.

WebThinker는 알리바바의 또 다른 무료 오픈소스 모델인 ‘QWQ'(큐더블유큐)에 의해 구동됩니다. QWQ 모델을 기반으로 단순한 답변을 제공하는 챗봇을 넘어, 필요한 정보를 찾을 때까지 웹을 반복 검색하고, 정보를 사실 확인하며, 스스로를 평가하고 계획을 수정하여 최종 보고서를 작성하는 에이전트 프레임워크를 구축한 것입니다.

벤치마크 점수를 보면, 매우 전문적이고 생소한 과학 분야의 질문으로 구성된 ‘Humanities Last Exam’ 벤치마크에서 WebThinker는 대부분의 기본 모델을 능가하는 성능을 보였습니다. OpenAI의 Deep Research보다는 점수가 낮지만, WebThinker는 현재 사용 가능한 최고의 무료 오픈소스 딥 리서치 도구라고 할 수 있습니다. 과학 보고서 생성 능력 벤치마크에서는 Grok-1 Deep Search나 Gemini Deep Research와 같은 선두 비공개 소스 딥 서치 모델들을 능가하는 인상적인 결과를 보여주기도 했습니다.

모든 것이 이미 공개되었으며, GitHub 저장소 링크와 모델 링크, 로컬 설치 지침 등이 제공됩니다. 과학 연구 등에 매우 강력한 이 도구가 오픈소스로 공개된 것은 놀라운 일입니다. OpenAI나 구글 등이 유사 기능을 유료 폐쇄 모델로 제공하는 것과 대조적입니다.

Suno 4.5: 더욱 향상된 표현력의 AI 음악 생성기

AI 음악 생성 분야의 선두주자 중 하나인 Suno가 최신 버전 ‘Suno 4.5’를 출시했습니다. Suno 측에 따르면, 4.5 버전의 보컬은 더 깊이 있고 감성적이며 넓은 다이나믹 레인지를 갖춰 표현력이 향상되었습니다. 또한 자연스러운 톤 변화, 악기 레이어링, 미세한 사운드 디테일까지 더욱 복잡한 사운드를 생성하여 현실감을 높였다고 합니다. 분위기, 느낌, 악기 등 프롬프트에 명시된 세부 사항을 생성 결과에 더 정확하게 반영하는 등 프롬프트 이해 능력도 개선되었습니다.

몇 가지 데모를 들어보면, ‘컨트리, EDM, 하우스’라는 독특한 조합의 프롬프트로 생성된 곡은 실제로 두 장르가 혼합된 느낌을 잘 살렸습니다. ‘모던 록, 앤섬’ 프롬프트의 곡이나 ‘인디 포크, 팝, 록’ 프롬프트의 곡(‘Staying’)은 보컬과 악기 모두 매우 현실적이고 표현력이 풍부하게 들리기도 했습니다. 하지만 일부 곡에서는 여전히 약간의 AI 느낌이나 보컬 표현력의 아쉬움이 느껴질 수 있습니다.

음악 품질은 주관적일 수 있으므로 직접 들어보고 판단하는 것이 좋습니다. Suno 4.5를 사용하려면 월 8달러부터 시작하는 유료 플랜에 가입해야 하며, 무료 플랜에서는 사용할 수 없습니다.

알리바바의 혁신: 비디오 속 의상을 자유자재로 바꾸는 AI

마지막으로 소개할 흥미로운 AI는 비디오 속 인물의 의상을 다른 옷 이미지로 교체해주는 기술입니다. 이 역시 알리바바에서 개발했습니다. (최근 몇 주간 알리바바, 텐센트, 바이트댄스 등 중국의 거대 기술 기업들이 놀라운 AI 도구들을 쏟아내고 있습니다.)

예를 들어, 흰색 드레스 이미지를 사용하여 비디오 속 여성이 입고 있는 옷을 해당 드레스로 자연스럽게 바꿀 수 있습니다. 머리카락이나 핸드백 등 다른 요소는 그대로 유지하면서 옷만 정확하게 교체합니다. 빛 반사가 심한 반짝이는 드레스의 질감이나 복잡하고 독특한 패턴이 있는 드레스도 매우 정확하게 렌더링하는 능력이 인상적입니다.

전신 의상뿐만 아니라 하의(바지->스커트, 반바지->청바지)나 상의만 교체하는 것도 가능하며, 패턴까지 정확하게 구현합니다. 비디오가 전신 샷이 아닌 상반신 뷰여도 원래 포즈와 카메라 움직임을 유지하면서 셔츠를 교체할 수 있습니다.

기존에도 Vivid나 Cat V2 Taon과 같이 비디오 속 옷을 바꾸는 AI 도구들이 있었지만, 알리바바의 이 새로운 도구는 오류가 가장 적고 새로운 의상을 가장 정확하게 묘사하는 것으로 보입니다.

현재 이 기술의 코드는 ‘곧 공개될 예정(coming soon)’이라고 명시되어 있어, 오픈소스로 공개될 가능성이 높아 보입니다. 더 많은 정보나 데모를 확인하고 싶다면 관련 페이지를 참조해 보세요.


이번 주 AI 분야의 주요 소식들을 살펴보았습니다. 정말 숨 가쁘게 발전하는 기술의 속도를 실감할 수 있습니다. 여러분은 어떤 소식이 가장 흥미로우셨나요? 혹은 어떤 도구를 가장 사용해보고 싶으신가요? 댓글로 여러분의 생각을 자유롭게 공유해주세요! 앞으로도 최신 AI 뉴스와 유용한 도구들을 발 빠르게 전해드리겠습니다.



Leave a Reply

Your email address will not be published. Required fields are marked *