이거 요즘 많이 쓰는데..무료 제작도 많이 줘서..방안에서 인종차별을 당하니 점점 기분이 나빠져서 못 쓰겠네요.
이게 인공지능 특유의 인물 유지를 못해서 그걸 방지하려고 캐릭터를 형성해서 저장할 수 있는데...이걸 아시아인이나 한국인으로 만들면 가쁜하게 무시하더군요.
멋있는 장면을 만들고 주인공은 제가 한국인이니 당연히 제가 만든 한국인 캐릭을 불러오면 주변에 배경으로 있어야 할 백인이 주인공이 되고 제 캐릭은 배경인물이 됩니다.
한국인이 키가 주변인물보다 크다거나 몸매가 더 좋다거나 하면 그것도 에러나거나 아니면 백인이나 흑인으로 바뀌는 경우가 대다수구요.
아시아인이 해변이나 고급스러운 호텔에서 쉬고 있는 장면은 만들어지는 경우가 거의 없어요. 특히나 배경에 사람이 있다면 더 더욱 안되고요.
웃긴 장면이거나 아니면 비참하고 더러운 장면은 주인공으로 잘만 만들어주고요.
흑인일 경우에도 무리 없이 만들어 집니다.
대화형 인공지능과 얘기해 본 결과 압도적인 데이터가 북유럽과 북미 백인인종으로 학습했고 흑인을 차별할 경우에는 난리가 나기에 흑인도 이 문제에서 자유로운데 아시아인종은 괜찮다고 여겼는 지 그게 안되는 것 같다고 합니다.
챗지피티는 같은 회사이면서 이건 엄청난 인종차별이라고 하더군요. 제미나이 그록도 그렇게 말하는데 고칠 방법은 뾰족하게 없다고. 미국에서 사는 아시아인들이 광범위하게 시위를 하고 소송을 걸 지 않는 한 해결이 안 될 거라고 합니다.
압도적인 북유럽인종 편향 학습은 어쩔 수 없다 해도 문제는 내가 만들어 놓은 인물의 특성을 그대로 유지해야 하는데 아시아인이란 걸 감지하는 순간 제일 우선으로 적용되어야 하는 걸 소라가 가쁜하게 무시하는 건 이미 기본적인 세팅이 잘못되어 있는 거라고 하는데 아마도 이건 소송들어가면 고쳐질 수도 있는 문제 같습니다.
더 황당한 건 미국 다음으로 이 분야의 강자가 중국인데 학습데이터가 미국 데이터에 의존해서 인지 아니면 그대로 베껴서 나와서 그런 건 지...얘네들도 기본값이 북유럽계 인물로 고정되어 있는 듯 하더군요.
같은 회사에서 나온 달리도 군중을 그려달라고 하면 반드시 중국인같은 아시아인들을 그려주더군요. 군중속에서 유달리 키가 작은 백인을 그려달라고 하면 좀 작은 백인 그리고, 소송이 무서워서 인지 흑인일 경우는 거부하고 같은 크기거나 더 크게 그리고 아시아인은 작다 못해 몸이 비틀어진 장애인을 그려 놓은 경우가 많은 거 보면 이 회사는 철저하게 아시아인에 대한 인종차별회사입니다. 적어도 영상제작이나 그림만드는 분야에서는 말이죠.
인종적 열등감은 전혀 없었는데 내 집 내 방 안에서 인종차별을 심하게 당하고 보니 어떤 사회구조에서 기본값이 된다는게 얼마나 편하고 강력한 건 지 실감했습니다.
미국이나 다른 나라에서 사시는 한국인들 힘들 거 같아 안스럽고, 한국에서 사는 외국인들한테 좀 더 친절해야겠다는 생각이 듭니다.







