Microsoft Zo는 인종 차별적 챗봇 Tay의 후속 조치입니다.

Microsoft의 마지막 챗봇 실험 이후 Tay는 공개된 지 24시간 이내에 인종차별주의자로 변해 사망, 이제 Zo를 출시하려고 합니다. 하지만 이번에는 반복되는 이벤트를 방지하기 위한 안전 장치가 있습니다.

Microsoft Zo는 인종 차별적 챗봇 Tay의 후속 조치입니다.

Microsoft Tay와 마찬가지로 Zo는 인간과의 대화에 참여하여 언어와 사람들이 단어와 감정을 함께 사용하는 방법에 대해 배웁니다. 그러나 이번에는 Twitter를 통해 모든 사람에게 공개되지 않습니다. Microsoft는 Kik 메신저를 플랫폼으로 사용하기로 결정했으며 사용자는 초대를 통해서만 허용됩니다. Microsoft는 또한 Facebook Messenger 및 Snapchat을 통해 Zo와 대화할 수 있는 애플리케이션을 수락하고 있으므로 Zo가 적절한 시기에 다른 플랫폼으로 확장될 가능성이 높습니다.

MSPoweruser의 Mehedi Hassan에 따르면 IT 전문가, Zo는 정상적인 대화를 못 박았습니다. 그러나 Microsoft의 챗봇은 더 깊고 의미 있는 대화나 정치에 관한 주제 또는 주제에 대한 깊은 지식이 필요한 모든 주제를 다루는 데 너무 열광하지 않습니다.

Microsoft는 Tay보다 Zo의 롤아웃에 훨씬 더 주의를 기울이고 있으므로 온라인 트롤로 인해 인종차별주의자가 되는 방향으로 빠르게 전환되는 것을 볼 가능성은 낮습니다. 그럼에도 불구하고 많은 Kik 사용자가 Reddit 사용자이기 때문에 이전과 마찬가지로 남용에 노출되어 있습니다. 초기 Tay 트롤링은 Reddit 사용자 집합에서 시작되었습니다.

관련 보기 

Duolingo의 새로운 AI 챗봇은 스페인어, 프랑스어 또는 독일어 학습을 도와줍니다.
이 채팅 봇은 친구와 대화할 수 있으므로 친구와 대화할 필요가 없습니다.
페이스북, 메신저에 봇 도입

Microsoft는 이전에 AI 챗봇 공간에서 약간의 성공을 거두었습니다. 일본에서는 Tay와 유사한 방식으로 Twitter에 챗봇을 구축했습니다. 테이는 24시간 만에 인종차별주의자로 변한 반면, 일본 유저들은 린나를 만들었다. 애니메이션을 좋아하는 오타쿠 여고생. 불행히도 테이가 무너지기 시작하자마자 서구 트롤들은 린나를 발견했고 인종차별주의자로 만들려고 시도하다가 결국 다소 우울하고 양극성 AI 생성.

이번에는 Microsoft가 Zo와 함께 휴식을 취할 수 있기를 바랍니다.