美 엔비디아 "인공지능 챗봇 오답 줄이는 소프트웨어 개발"
美 엔비디아 "인공지능 챗봇 오답 줄이는 소프트웨어 개발"
  • 최석진 기자
  • 승인 2023.04.26 05:52
  • 수정 2023.04.26 05:52
  • 댓글 0
이 기사를 공유합니다

엔비디아[AFP 연합뉴스]
엔비디아[AFP 연합뉴스]

미국 반도체 기업 엔비디아는 25일(현지시간) 생성형 인공지능(AI) 챗봇의 오답을 줄이고 주제를 벗어나는 '환각'(hallucination)을 차단하는 소프트웨어를 개발했다고 밝혔다.

'네모 가드레일'(NeMo Guardrails)이라는 이름의 이 프로그램은 소프트웨어 개발자들에게 AI 모델이 사실과 다른 팩트를 말하거나, 유해한 주제에 대해 답하지 못하도록 하는 데 도움을 준다고 엔비디아는 설명했다.

이는 전 세계적으로 큰 인기를 끌고 있는 챗GPT 등 AI 챗봇이 가짜 정보를 마치 진짜인 양 제공하고 윤리적으로 문제가 되는 답을 제공하는 등 답변을 둘러싼 논란이 제기되는 가운데 나왔다.

연합뉴스에 따르면 '네모 가드레일'은 챗GPT와 같은 언어 모델 챗봇이 특정 주제에 관해서만 이야기하도록 강제하고 유해한 콘텐츠는 차단한다. 또 대규모 언어 모델(LLM)이 컴퓨터에서 유해한 명령을 실행하지 못하도록 막는다.

조나단 코언 엔비디아 응용 연구 부문 부사장은 "누군가 한 주제에 관해 이야기하면 이 방식으로만 답하라고 스크립트를 작성할 수 있다"며 "언어 모델이 프롬프트나 이용자 지시를 따르지 않을 수 있는데, 이 소프트웨어의 실행 로직은 데이터를 쉽게 변경할 수 없도록 한다"고 설명했다.

dtpchoi@wikileaks-kr.org


  • 서울특별시 마포구 마포대로 127, 1001호 (공덕동, 풍림빌딩)
  • 대표전화 : 02-702-2677
  • 팩스 : 02-702-1677
  • 청소년보호책임자 : 소정원
  • 법인명 : 위키리크스한국 주식회사
  • 제호 : 위키리크스한국
  • 등록번호 : 서울 아 04701
  • 등록일 : 2013-07-18
  • 발행일 : 2013-07-18
  • 발행인 : 박정규
  • 편집인 : 박찬흥
  • 위키리크스한국은 자체 기사윤리 심의 전문위원제를 운영합니다.
  • 기사윤리 심의 : 박지훈 변호사
  • 위키리크스한국 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.
  • Copyright © 2024 위키리크스한국. All rights reserved.
  • [위키리크스한국 보도원칙] 본 매체는 독자와 취재원 등 뉴스 이용자의 권리 보장을 위해 반론이나 정정보도, 추후보도를 요청할 수 있는 창구를 열어두고 있음을 알립니다.
    고충처리 : 02-702-2677 | 메일 : laputa813@wikileaks-kr.org
ND소프트