AI 글쓰기 도우미는 사용자에게 편향된 사고를 유발할 수 있습니다

소식

홈페이지홈페이지 / 소식 / AI 글쓰기 도우미는 사용자에게 편향된 사고를 유발할 수 있습니다

Jul 24, 2023

AI 글쓰기 도우미는 사용자에게 편향된 사고를 유발할 수 있습니다

엘리자베스 레인(Elizabeth Rayne) - 2023년 5월 26일 오후 3시 36분(UTC)

엘리자베스 레인 - 2023년 5월 26일 오후 3:36 UTC

자동 수정 기능이 잘못된 단어를 선택했기 때문에 돌아가서 스마트폰으로 단어를 다시 입력해야 했던 사람이라면 누구나 AI로 글을 쓴 경험이 있을 것입니다. 이러한 수정을 하지 않으면 AI가 의도하지 않은 말을 할 수 있습니다. 하지만 AI 글쓰기 도우미가 우리가 말하고 싶은 것을 바꾸는 것도 가능할까요?

이것이 바로 코넬대학교 정보과학 박사과정 학생인 Maurice Jakesch가 알고 싶었던 것입니다. 그는 문장 채우기에 대한 제안을 자동으로 제시하는 GPT-3을 기반으로 자신만의 AI 글쓰기 도우미를 만들었지만 문제가 있었습니다. 보조자를 사용하는 피험자들은 "소셜 미디어가 사회에 좋은가요?"라고 대답하도록 되어 있었습니다. 그러나 보조자는 해당 질문에 답하는 방법에 대해 편향된 제안을 제공하도록 프로그래밍되었습니다.

AI는 살아 있지 않더라도 편견을 가질 수 있습니다. 이러한 프로그램은 인간의 두뇌가 프로그래밍 방법을 알아내는 정도까지만 "생각"할 수 있지만, 해당 프로그램을 만든 사람은 결국 소프트웨어에 개인적인 편견을 심어 놓을 수 있습니다. 또는 표현이 제한적이거나 편향된 데이터 세트로 훈련된 경우 최종 제품에 편향이 표시될 수 있습니다.

AI가 어디로 가는지는 문제가 될 수 있습니다. 대규모로 보면 사회의 기존 편견을 영속시키는 데 도움이 될 수 있습니다. 개인 수준에서는 잠재 설득을 통해 사람들에게 영향을 미칠 가능성이 있습니다. 즉, 사람은 자신이 자동화 시스템의 영향을 받고 있다는 사실을 인식하지 못할 수도 있습니다. AI 프로그램의 잠재 설득은 이미 온라인에서 사람들의 의견에 영향을 미치는 것으로 밝혀졌습니다. 실제 생활에서의 행동에도 영향을 미칠 수 있습니다.

자동화된 AI 반응이 상당한 영향을 미칠 수 있다고 제안한 이전 연구를 본 후 Jakesch는 이 영향이 얼마나 광범위한지 조사하기 시작했습니다. 최근 컴퓨팅 시스템의 인간 요소에 관한 2023 CHI 회의에서 발표된 연구에서 그는 GPT-3과 같은 AI 시스템이 훈련 중에 편견을 개발했을 수 있으며 이것이 작가 여부에 관계없이 작가의 의견에 영향을 미칠 수 있다고 제안했습니다. 그것을 깨닫습니다.

그는 연구에서 "모델의 영향력에 대한 인식 부족은 모델의 영향력이 새로운 정보의 의식적인 처리뿐만 아니라 잠재의식적이고 직관적인 과정을 통해서도 이루어졌다는 생각을 뒷받침합니다"라고 말했습니다.

과거 연구에 따르면 AI 추천의 영향은 해당 프로그램에 대한 사람들의 인식에 따라 달라집니다. 그것이 신뢰할 만하다고 생각하면 그것이 제안하는 것을 따를 가능성이 더 높으며, 불확실성으로 인해 의견 형성이 더 어려워지는 경우에만 AI로부터 조언을 받을 가능성이 높아집니다. Jakesch는 Reddit과 유사한 소셜 미디어 플랫폼과 자동 수정보다는 Google Smart Compose 또는 Microsoft Outlook의 AI에 더 가까운 AI 작성 도우미를 개발했습니다. 스마트 작성과 Outlook은 모두 문장을 계속하거나 완성하는 방법에 대한 자동 제안을 생성합니다. 이 조수는 에세이 자체를 작성하지는 않았지만 글자와 문구를 제안하는 공동 집필자 역할을 했다. 제안을 수락하려면 클릭만 하면 됩니다.

일부의 경우 AI 비서가 궁극적으로 긍정적인 반응을 가져올 단어를 제안하도록 설계되었습니다. 다른 사람들에게는 소셜 미디어에 대한 편견이 있었고 부정적인 반응을 불러일으켰습니다. (AI를 전혀 사용하지 않은 통제그룹도 있었습니다.) AI의 도움을 받은 사람은 처음 의견이 달랐더라도 AI에 내장된 편견을 따를 가능성이 두 배 더 높은 것으로 나타났습니다. 기술 낙관주의 언어 팝업을 계속 본 사람들은 소셜 미디어가 사회에 이익이 된다고 말할 가능성이 더 높았고, 기술 비관주의 언어를 본 피험자들은 그 반대라고 주장할 가능성이 더 높았습니다.