기후위기시계
실시간 뉴스
  • 흑인 사진을 ‘고릴라’로 태그…구글의 해프닝
[HOOC=이정아 기자] 흑인 사진이 ‘고릴라’로 태그되는 황당한 일이 벌어졌습니다. 바로 ‘구글 사진’의 어플리케이션 서비스 가운데 하나인 얼굴 자동인식 기능의 오류로 흑인이 ‘고릴라’로 표시되는 일이 벌어진 것인데요. 미국의 해묵은 난제인 인종갈등이 재점화되는 민감한 시기에 일어난 일인 만큼, 해당 서비스를 제공한 구글 측은 재빠르게 사과하고 긴급 패치를 내놓았습니다.

사건은 지난달 28일 미국 뉴욕에서 일하는 흑인 프로그래머 재키 앨신이 트위터에 구글 사진 캡처 화면과 함께 글을 남기면서 전개됩니다.

“구글 사진, 당신들 모두 ×됐어. 내 친구는 고릴라가 아니란 말야.”

공개된 캡처 화면에는 앨신이 흑인 여성 친구와 함께 찍은 사진 묶음의 표지에 ‘고릴라들’이라는 제목이 달려 있었습니다. 구글 사진 서비스가 이 흑인 두 명을 ‘고릴라들’로 인식해 태그를 건 것인데요. 사진의 피사체의 정체를 자동으로 인식해 분류하고 태그를 달아 주는 기능의 오류였습니다.

해당 게시물이 게재되고 약 1시간 30분 후, 구글 플러스의 수석 설계자인 요나탄 정거는 트위터로 직접 앨신에게 공개 답장을 보냅니다. “100% 잘못된 일”이라며 급히 사과한 것인데요.

정거는 앨신에게 문제의 사진들에 왜 그런 태그가 붙었는지 구글 사진 개발팀이 분석토록 했고, 장기적으로 피부색이 짙은 얼굴에 대한 자동 인식 알고리즘과 태깅 시스템을 개선하겠다고 밝혔습니다. 사건 다음날, 긴급 패치를 내놓아 이런 태그가 붙지 않도록 조치도 하고요.

정거는 최근까지 구글 사진의 피사체 자동인식 시스템이 백인 얼굴을 개나 물개와 혼동한 적도 있다며 “머신 러닝은 힘든 일”이라고도 덧붙였습니다.

이후 구글은 이번 사건에 대한 성명도 내놓았습니다.

“이런 일이 있었다는 데 대해 정말 끔찍하게 생각하며 진정으로 죄송하게 생각합니다. 이런 유형의 결과가 나타나지 않도록 즉각 조치를 취하고 있습니다. 아직도 이미지 자동 레이블링에 개선해야 할 점이 많은 것이 분명하며, 앞으로 이런 유형의 실수가 벌어지지 않도록 하려면 어떻게 해야 하는지 살펴보고 있습니다.”

정거의 신속한 대응에 대해 앨신은 감사의 뜻을 트위터로 전하면서, 이번 사건은 해프닝으로 매듭이 지어졌습니다.

dsun@heraldcorp.com
맞춤 정보
    당신을 위한 추천 정보
      많이 본 정보
      오늘의 인기정보
        이슈 & 토픽
          비즈 링크