Copilot 활성화#

plans-img 모든 플랜 에서 사용 가능

deployment-img 클라우드자체 호스팅 배포

Mattermost의 Copilot을 통해 AI 생성 정보, 토론 요약 및 상황 인식 액션 추천에 즉시 접근하여 실시간 협업 기능을 향상시켜 팀 생산성과 의사 결정 속도를 크게 높이세요. 사용자는 여러 도구나 플랫폼 간에 전환할 필요 없이 일상적인 커뮤니케이션 채널 내에서 직접 AI 기능과 상호작용할 수 있습니다.

Mattermost Academy Learn about setting up and configuring Mattermost Copilot with multiple LLMs

설정#

시스템 콘솔을 사용하여 활성화 하고 구성 하려면 Mattermost 시스템 관리자여야 합니다.

Mattermost v10.3부터#

Mattermost v10.3부터 Copilot이 자동으로 설치되어 대규모 언어 모델(LLM) 구성 할 준비가 됩니다. LLM이 구성되지 않은 경우 Copilot 패널 에서 사용자에게 구성을 요청합니다.

Mattermost v9.7부터#

Mattermost v9.7부터 제품 제품 메뉴 아이콘을 사용하여 채널과 협업 플레이북 간에 이동하세요. 아이콘을 선택하고 앱 마켓플레이스 를 선택하여 제품 내 Mattermost 마켓플레이스에서 Mattermost Copilot을 설치할 수 있습니다. Copilot 을 검색하고 설치 를 선택한 다음 LLM 구성 을 완료하세요.

Mattermost v9.6 또는 이전 버전#

중요

최적화된 사용자 경험과 호환성을 위해 Mattermost v9.7 이상에서 Mattermost Copilot을 사용하는 것을 권장합니다.

Mattermost Server v9.6 또는 이전 버전을 실행 중인 경우 플러그인 저장소에서 다운로드 가능한 최신 바이너리 를 사용하여 AI Copilot을 설치해야 합니다.

Copilot은 다음 Mattermost Server 버전과 호환됩니다:

  • v9.6 이상

  • v9.5.2+ (확장 지원 릴리스 - ESR)

  • v9.4.4+

  • v9.3.3+

  • v8.1.11+ (확장 지원 릴리스 - ESR)

활성화#

Mattermost v10.3부터#

Mattermost v10.3부터 Copilot이 자동으로 활성화되며 LLM 구성 준비가 완료됩니다.

Mattermost v9.6부터#

Mattermost v9.6부터 시스템 콘솔 > 플러그인 > Copilot 으로 이동하여 플러그인 활성화True 로 설정한 다음 시스템 콘솔에서 구성 완료 를 해야 합니다.

Mattermost 구성#

다양한 사용자 지정 및 확장성 옵션을 통해 내부 시스템과의 통합, 팀 또는 프로젝트 요구 사항에 기반한 AI 응답 사용자 지정, 운영 요구 사항에 고유한 새로운 기능 개발 등 특정 요구 사항에 맞게 Copilot을 조정할 수 있습니다. 또한 AI를 활용하여 고유한 비즈니스 요구 사항을 충족하는 사용자 지정 통합, 워크플로우 및 봇을 만들 수 있습니다.

시스템 콘솔 > 플러그인 > Copilot 으로 이동하여 AI 봇 추가 를 선택하여 Copilot 통합을 위한 LLM을 구성하세요. Mattermost는 다음 LLM을 지원합니다:

참고

Copilot 통합을 위해 여러 LLM을 정의하는 기능은 Mattermost Enterprise 라이선스가 필요합니다.

  1. OpenAI API 키 를 획득하세요.

  2. 서비스 드롭다운에서 OpenAI 를 선택하세요.

  3. API 키 필드에 OpenAI API 키를 입력하세요.

  4. 기본 모델 필드에 API의 모델 레이블에 해당하는 모델 이름(예: gpt-4o 또는 gpt-3.5-turbo)을 입력하세요.

  5. (선택사항) API 키가 OpenAI 조직에 속한 경우 조직 ID 를 지정하세요.

  1. Anthropic API 키 를 획득하세요.

  2. 서비스 드롭다운에서 Anthropic 을 선택하세요.

  3. API 키 필드에 Anthropic API 키를 입력하세요.

  4. 기본 모델 필드에 API의 모델 레이블에 해당하는 모델 이름(예: claude-3-5-sonnet-20240620)을 지정하세요.

Microsoft Azure의 OpenAI 서비스 통합에 대한 자세한 내용은 공식 Azure OpenAI 문서 를 참조하세요.

  1. 조직에 대한 충분한 Azure OpenAI 액세스 를 프로비저닝하고 Azure 포털 에 접근하세요.

  2. 아직 없는 경우 Azure AI Studio 내에서 Azure AI Hub 리소스를 배포하세요

  3. 배포가 완료되면 리소스로 이동하여 Azure AI Studio 시작 을 선택하세요.

  4. 측면 탐색 창에서 공유 리소스 아래의 배포 를 선택하세요.

  5. 모델 배포 를 선택한 다음 기본 모델 배포 를 선택하세요.

  6. gpt-4o 와 같은 모델을 선택하고 확인 을 선택하세요.

  7. 모델을 시작하려면 배포 를 선택하세요.

  8. Mattermost에서 서비스 드롭다운에서 OpenAI 호환 을 선택하세요.

  9. 새 모델 배포의 엔드포인트 패널에서 대상 URI 의 기본 URI(.com 까지 포함)를 복사하여 Mattermost의 API URL 필드에 붙여넣으세요.

  10. 새 모델 배포의 엔드포인트 패널에서 를 복사하여 Mattermost의 API 키 필드에 붙여넣으세요.

  11. 새 모델 배포의 배포 패널에서 모델 이름 을 복사하여 Mattermost의 기본 모델 필드에 붙여넣으세요.

OpenAI 호환 옵션을 사용하면 Ollama 와 같은 OpenAI 호환 LLM 제공업체와 통합할 수 있습니다:

  1. 예를 들어 Ollama 에서 모델을 배포하세요.

  2. AI 서비스 드롭다운에서 OpenAI 호환 을 선택하세요.

  3. API URL 필드에 Mattermost 배포에서 AI 서비스의 URL을 입력하세요. 포트를 포함하고, Ollama를 사용하는 경우 URL 끝에 /v1 을 추가하세요. (예: Ollama의 경우 http://localhost:11434/v1, 그렇지 않은 경우 http://localhost:11434/)

  4. Ollama를 사용하는 경우 API 키 필드를 비워두세요.

  5. 기본 모델 필드에 모델 이름을 지정하세요.

사용자 지정 지침#

여기에 입력한 텍스트는 모든 요청의 프롬프트에 포함됩니다. 이를 사용하여 봇에 추가 컨텍스트나 지침을 제공하세요. 예를 들어, 조직의 특정 약어를 모두 나열하여 봇이 사용자의 용어를 알고 사용자가 정의를 요청할 수 있도록 할 수 있습니다. 또는 특정 성격을 채택하거나 특정 워크플로우를 따르는 등의 특수 지침을 제공할 수 있습니다. 각 개별 봇에 대한 지침을 사용자 지정하여 특정 요구 사항에 맞는 더 맞춤화된 AI 경험을 만들 수 있습니다.

비전 활성화 (베타)#

비전을 활성화하면 게시물에 첨부된 이미지를 업스트림 LLM으로 전송하여 분석할 수 있습니다. 이를 위해서는 업스트림 LLM이 이러한 기능을 지원해야 합니다. OpenAI 및 OpenAI 호환 서비스에서만 사용 가능합니다.

도구 비활성화 (베타)#

도구를 비활성화하면 LLM이 함수 호출을 할 수 없게 됩니다. 이는 모델이 기술적으로 도구 사용을 지원하지만 Mattermost 내에서 사용되는 것을 방지하고 싶을 때 유용합니다. 모델에서 예측할 수 없는 도구 관련 동작이 발생하면 이 기능을 전환해 보세요.

Copilot 플러그인 메트릭#

Copilot의 메트릭은 기존 Mattermost 서버 메트릭 엔드포인트 아래의 /plugins/mattermost-ai/metrics 하위 경로를 통해 노출됩니다. 이는 성능을 위한 수신 주소 구성 설정에 의해 제어됩니다. 기본 포트는 8067 이며 다음과 같은 메트릭을 사용할 수 있습니다:

  • copilot_system_plugin_start_timestamp_seconds: 플러그인이 시작된 시간.

  • copilot_system_plugin_info: 플러그인 버전 및 설치 ID.

  • copilot_api_time_seconds: API 실행 시간.

  • copilot_http_requests_total: API 요청 총 수.

  • copilot_http_errors_total: HTTP API 오류 총 수.

  • copilot_llm_requests_total: 업스트림 LLM에 대한 요청 총 수.

통합#

현재 통합은 사용자와 봇 간의 직접 메시지로 제한됩니다. 공개, 비공개 또는 그룹 메시지 채널 내에서는 통합이 작동하지 않습니다.

Jira#

공개 Jira 인스턴스의 이슈를 가져올 수 있습니다. 이 통합을 위해 구성이 필요하지 않습니다.

GitHub#

Mattermost GitHub 플러그인이 활성화되어 있다면, 공개 및 비공개 GitHub 저장소에서 이슈와 PR을 가져오는 통합을 사용할 수 있습니다. 사용자는 Mattermost GitHub 플러그인을 통해 GitHub 계정에 로그인해야 합니다.

업그레이드#

새 버전이 출시될 때마다 이 통합을 업데이트하는 것을 권장합니다. 일반적으로 업데이트는 원활하게 이루어지며 Mattermost의 사용자 경험을 방해하지 않습니다.

최신 릴리스, 사용 가능한 릴리스 및 호환성 고려사항은 릴리스 페이지 를 방문하세요.

사용법#

Copilot이 구성되면 팀에 모든 Mattermost 팀이나 채널에서 Copilot을 사용할 수 있다는 사실을 알리고, 정보 과부하를 극복하고 커뮤니케이션과 협업을 간소화하기 위한 Copilot 사용에 대한 자세한 내용은 Copilot과 채팅 문서를 참조하도록 안내하세요.