JavaScript를 사용하여 생성적 AI의 힘을 발견하세요. AI를 웹, 모바일 또는 데스크톱 애플리케이션에 원활하게 통합하는 방법을 알아봅니다.
AI를 사용하는 JavaScript?
Python은 AI 모델을 만들고 학습시키는 데 적합하지만 이러한 모델을 사용하여 앱을 빌드하는 것은 다릅니다. 대부분의 AI 모델은 웹 API를 통해 작동하므로 HTTP 호출을 수행할 수 있는 모든 언어는 AI를 사용할 수 있습니다. JavaScript는 플랫폼 간이며 브라우저와 서버를 쉽게 연결하므로 AI 앱에 대한 강력한 선택입니다.
재미있고 대화형 코스
비디오, 코드 프로젝트 및 전체 구현을 포함한 몰입형 학습 환경에 참여하여 생성 AI를 사용하고 알아봅니다.
이 과정은 학생과 신규 개발자가 재미있고 대화형 방식으로 AI에 대해 배울 수 있는 좋은 방법입니다. 경력 개발자의 경우 AI로의 스케일링을 위해 심층 분석합니다.
이 과정에서는 다음을 수행합니다.
- 생성 AI로 역사적 인물을 생생하게 재현하며 AI를 배워보세요.
- 기본 제공 브라우저 API를 사용하여 접근성 적용
- 텍스트 및 이미지 생성을 사용하여 AI를 앱 환경에 통합
- AI 애플리케이션에 대한 아키텍처 패턴 알아보기
도우미 애플리케이션을 사용하여 역사적 인물들과 대화하다
LLM에 대해 알아야 할 사항
LLM(큰 언어 모델)은 텍스트를 이해하고 만들기 위해 많은 데이터에 대해 학습된 심층 신경망입니다. 학습은 크고 다양한 데이터 세트로 시작하여 기본 모델을 빌드한 다음, 특수 데이터를 사용하여 더 나은 결과를 위해 미세 조정합니다. LLM은 코드 편집기 또는 채팅 앱에서 스마트 자동 완성 도구처럼 작동합니다. 모델에는 컨텍스트 창과 같은 제한이 있으며(일반적으로 몇 천 개의 토큰이 있지만 최신 모델은 더 많은 것을 지원하지만) 학습 데이터의 바이어스를 표시할 수 있습니다. 따라서 책임 있는 AI는 Microsoft에서 권장하는 대로 공정성, 안정성, 개인 정보 보호 및 책임에 중점을 두고 중요합니다.
과정의 LLM 세션에서 자세히 알아보세요.
필수 프롬프트 엔지니어링 기술
프롬프트 엔지니어링은 더 나은 AI 결과를 얻기 위해 프롬프트를 설계하는 것을 의미합니다. 제로샷 학습(예제 없음) 또는 몇 번의 학습(예제 포함)을 사용하여 모델을 안내할 수 있습니다. 단계별 지침, 명확한 컨텍스트 및 출력 형식과 같은 신호를 추가하면 모델이 더 나은 답변을 제공할 수 있습니다. 톤을 조정하고 응답을 개인 설정할 수도 있습니다. 이러한 기본 사항은 RAG와 같은 고급 기술을 위해 설정됩니다.
과정의 프롬프트 엔지니어링 세션에서 자세히 알아보세요.
RAG를 사용하여 AI 정확도 및 안정성 향상
RAG(검색 증강 세대)를 사용하여 AI를 보다 정확하고 안정적으로 만듭니다. RAG는 up-to-date 문서를 찾는 리트리버를 해당 문서를 사용하여 질문에 대답하는 생성기와 결합합니다. 이 방법은 신뢰할 수 있는 원본을 기반으로 하는 명확하고 사실적인 답변을 제공하므로 결과를 쉽게 확인하고 비용 효율적으로 확인할 수 있습니다. 예를 들어, Contoso 부동산 지원 부서는 RAG를 사용하여 회사 문서를 기반으로 한 자세한 답변을 제공합니다.
과정의 RAG 세션에서 자세히 알아보세요.
LangChain.js 사용하여 AI 개발 가속화
LangChain.js사용하여 AI 프로젝트 속도를 향상합니다. 이 JavaScript 라이브러리를 사용하면 큰 언어 모델을 쉽게 사용할 수 있습니다. LangChain.js 사용하여 프롬프트 템플릿을 빌드하고, 모델 및 벡터 데이터베이스를 연결하고, 복잡한 워크플로를 만듭니다. YouTube 대본에서 질문을 가져오고 답변하는 API와 같은 앱을 신속하게 프로토타입합니다. 프로덕션 준비가 되면 코드를 변경하지 않고 Azure 서비스에 대한 로컬 모델 및 벡터 저장소를 교환합니다.
과정 LangChain.js 세션에서 자세히 알아보세요.
Ollama를 사용하여 로컬 컴퓨터에서 AI 모델 실행
llama.cpp 기반으로 하는 오픈 소스 도구인 Ollama에서 로컬 AI 모델을 다운로드하고 사용하여 Phi-3과 같은 작은 언어 모델을 효율적으로 실행합니다. 로컬 모델은 클라우드 인프라에 대한 의존도를 없애고, 오프라인 기능을 사용하여 신속한 개발을 가능하게 하며, 빠른 내부 개발 루프를 통해 비용 효율적인 테스트를 제공합니다. 고성능 및 책임 있는 AI 안전성으로 유명한 Phi-3은 보통 사양 디바이스에서도 실행할 수 있으며 OpenAI 호환 API를 통해 액세스할 수 있으므로 개발 워크플로와 쉽게 통합할 수 있습니다.
Phi-3을 사용하여 무료로 AI 시작
온라인 플레이그라운드를 사용하여 브라우저에서 Ollama 도구 및 Phi-3 모델을 사용하여 AI 모델을 사용해 보세요. 브라우저에서 VS Code를 사용하는 GitHub Codespace를 만들고, "Ollama run phi3"과 같은 명령을 실행하여 모델과 채팅하고, Jupyter Notebook을 사용하여 프롬프트 엔지니어링, 몇 번의 학습 및 RAG를 테스트합니다. 빠른 GPU 또는 로컬 설정이 필요하지 않은 AI 프로젝트를 온라인으로 빌드하고 탐색할 수 있습니다.
코스의 Phi-3 세션에서 자세히 알아보세요.
Azure AI Foundry 소개
Azure AI Foundry를 사용하여 JavaScript를 사용하여 생성 AI 앱 빌드를 시작합니다. 허브 및 프로젝트를 사용하여 리소스를 구성하고, 수천 개의 모델을 찾아보고, 놀이터에서 테스트할 모델을 배포합니다. 관리형 컴퓨팅 또는 서버리스 API를 선택하든 관계없이 동일한 단계에 따라 워크플로에서 모델을 선택, 배포 및 사용합니다.
과정의 Azure AI Foundry 세션에서 자세히 알아보세요.
Azure Cosmos DB를 사용하여 생성 AI 앱 빌드
과정의 Azure Cosmos DB 세션에서 자세히 알아보세요.
AI 앱을 호스팅하고 저장하기 위한 Azure 도구 & 서비스
AI 앱을 호스팅하고 저장하기 위한 주요 Azure 도구 및 서비스를 검색합니다. 채팅 앱, RAG 및 자율 에이전트와 같은 다양한 유형의 AI 앱을 빌드합니다. AZD(Azure Developer CLI)를 사용하여 쉽게 배포할 수 있습니다. 서버리스 및 컨테이너 기반 옵션을 비교하고 실제 사용을 위해 API를 안전하고 확장 가능하며 모니터링하는 방법을 알아봅니다.
과정의 Azure 도구 및 서비스 세션에서 자세히 알아보세요.
생성 인공지능 출력을 AI 채팅 프로토콜을 통해 스트리밍하기
AI 채팅 프로토콜을 사용하여 생성 AI 출력을 스트리밍합니다. 이 도구를 사용하면 AI 서비스와 클라이언트 앱 간의 실시간 통신을 쉽게 수행할 수 있습니다. 브라우저에서 유추를 실행하거나 AI 유추 서버를 사용하는 두 가지 스트리밍 방법을 사용해 보세요. API 키 노출, 데이터 안전성 및 올바른 프로토콜 선택에 주의하세요. AI 채팅 프로토콜의 간단한 클라이언트를 사용하면 LangChain.js 예제와 함께 서버리스 RAG에 표시된 것처럼 getCompletion 및 getStreamedCompletion 메서드를 사용하여 앱에 안전하고 효율적인 스트리밍을 추가할 수 있습니다.
과정의 스트리밍 세션에서 자세히 알아보세요.