뉴스/정보
기타 분류

Meta AI 리서치 랩, 챗봇을 대중에 공개

작성자 정보

  • 게이머여울 작성
  • 작성일

컨텐츠 정보

  • 6,916 조회
  • 0 추천
  • 0 비추천
  • 목록

본문

https://www.theverge.com/2022/8/5/23293281/meta-ai-chatbot-blenderbot-3-web-access-research-safety



https://geo-not-available.blenderbot.ai/ (미국 지역에서만 사용 가능)


33d9962409f8eea8e84492b5d99fc8d806fb7c487af3e65c41999a47ab1a27fc.png



BlenderBot 3이라는 이름을 가진 챗봇은 일반적인 잡담 및 AI 어시스턴트에게 물어볼 수 있는 종류의 질문에도 답변할 수 있습니다.


봇은 현재 프로토타입 상태이며 Meta가 기존에 작업한 것과 LLMS를 사용했습니다. (기존 작업: https://www.technologyreview.com/2022/05/03/1051691/meta-ai-large-language-model-gpt3-ethics-huggingface-transparency/)


LLMS를 사용한 사례 중에는 강력하지만 결함이 있는 텍스트 생성 소프트웨어인 GPT-3이 있습니다.


모든 LLM과 마찬가지로 BlenderBot은 초기에 방대한 텍스트 데이터 세트에 대해 교육을 받았으며 언어를 생성하기 위해 통계 패턴을 마이닝합니다. 이러한 시스템은 매우 유연하지만 교육 데이터의 편향에 의해 종종 사용자의 질문에 대한 답변을 새로 만들어낸다는 단점이 있습니다. (이것을 디지털 어시스턴트로 사용하려면 큰 문제)


교육 데이터의 편향 문제가 Meta가 BlenderBot으로 특별히 테스트하고자 하는 것입니다. 챗봇의 큰 특징은 특정 주제에 대해 이야기하기 위해 인터넷을 검색할 수 있다는 것입니다. 더욱 중요한 것은 사용자가 응답을 클릭하여 정보를 얻은 위치를 확인할 수 있다는 것입니다. 즉, BlenderBot 3는 출처를 인용할 수 있습니다.


메타는 챗봇을 일반 대중에게 공개함으로써 대형 언어 모델이 직면한 다양한 문제에 대한 피드백을 수집하고자 합니다. BlenderBot과 채팅하는 사용자는 시스템에서 의심되는 응답에 플래그를 지정할 수 있으며 Meta는 "봇의 저속한 언어, 비방 및 문화적으로 무감각한 댓글 사용을 최소화"하기 위해 열심히 노력했다고 말합니다. 사용자는 데이터 수집을 선택해야 하며, 수집된 경우 대화와 피드백은 저장되고 나중에 메타에서 게시하여 일반 AI 연구 커뮤니티에서 사용할 수 있습니다.

관련자료

댓글 0
등록된 댓글이 없습니다.
알림 0