업데이트: 와우. 그것은 빨랐습니다. Microsoft는 이미 Tay를 두 번째로 뽑았습니다. 일련의 욕설 트윗과 그 중 적어도 하나는 마약 복용을 조장한 후. 다시 제도판으로 돌아가서 Microsoft입니다. 이것이 우리가 좋은 것을 가질 수 없는 이유입니다.
마이크로소프트는 성명을 통해 "테스트의 일환으로 짧은 시간 동안 트위터에서 부주의로 활성화됐다"고 밝혔다. 시간.” 봇이 세 번째로 돌아오면 조금 더 오래 지속되길 바라며... 원본은 계속됩니다. 아래에.
테이 기억나? 지난 주 트위터에 등장한 마이크로소프트의 AI는 처음에는 1940년대 파시즘에 대한 강박적인 관심을 갑자기 발전시키기 전에 처음에는 말도 안 되는 말을 내뱉었다.
편협한 스펙트럼의 모든 우울한 구석을 포괄하는 일련의 앵무새 견해에 이어 Tay는 수면의 필요성을 이유로 24시간 이내에 신속하게 철수했습니다. 이 맥락에서 "sleep"은 아마도 인터넷에서 동료의 압력과 낯선 사람의 위험에 대한 Microsoft의 교훈을 위한 코드일 것입니다.
글쎄, 누가 더 많은 것을 위해 돌아왔을까?
관련 보기
그것은 매우 빠른 전환입니다. 마이크로소프트가 쓴 지난 주 블로그 게시물에서 그들은 "우리의 원칙과 가치와 충돌하는 악의적 의도를 더 잘 예측할 수 있다고 확신할 때만" 테이를 다시 살릴 계획이라고 말했습니다.
게시물의 다른 곳에서 Microsoft Research의 기업 부사장인 Peter Lee는 Tay가 처음에 어디에서 잘못되었는지 정확히 설명했습니다. "ㅏ 일부 사람들의 공동 공격은 Tay의 취약점을 악용했습니다.”라고 그는 썼습니다.
“우리는 시스템의 여러 유형의 남용에 대비했지만 이 특정 공격에 대해 중요한 감독을 했습니다. 그 결과 Tay는 매우 부적절하고 비난받을 수 있는 단어와 이미지를 트윗했습니다. 이런 가능성을 미리 보지 못한 데 대해 모든 책임을 진다”고 말했다.
이것은 Microsoft의 첫 번째 AI 실험이 아니었으며 Lee는 중국 봇 XiaoIce의 긍정적인 경험을 언급합니다. 약 4천만 명의 사람들이 사용하고 있으며 그 이야기와 대화에 만족하고 있습니다.” 아마도 그 이야기는 조금 적습니다.
논쟁의 여지가 있는 서양인보다.실제로 XiaoIce는 지난 12월 중국 TV에서 뉴스를 발표할 정도로 신뢰를 받았습니다. 아마도 Tay가 여기에서 동일한 브리핑을 받지 않은 것이 최선일 것입니다. Ofcom에 대한 불만은 편안하게 73,788 빅 브라더가 모였습니다..
https://youtube.com/watch? v=A3rKavB0krs
같은 파티가 Tay의 어두운 면을 다시 드러내는 데 또 다른 균열이 생길 것이라는 것을 알고 있으므로 오늘날 Tay가 얼마나 더 음소거되었는지 보는 것이 흥미로울 것입니다. 확실히 이번에는 테이가 메시지에 답장하는 데 훨씬 느린 것 같았습니다. 응답이 즉각적이던 시절에 내가 보낸 명랑한 환영에 대한 응답을 여전히 기다리고 있습니다.
아니면 지난 주에 그녀가 Derby County 채팅을 가득 채웠을 수도 있습니다.
다음 읽기: 우리는 Microsoft의 마지막 AI 실험을 선호합니다. Alphr 팀의 개 품종은 다음과 같습니다.