자료 선택 이슈와 별도로 인공지능이 하는 선택에 어떤 제약 조건과 값을부여하는 기술적 방법이 있을 수 있다. 이것들은 덜 왜곡된 자료 모음 사용을 통해 편향성이 수정될 수 없는 상황에서 특히 유용한데, 예를 들면 (인터넷의 콘텐츠처럼) 전체 자료가 편향성을 보이거나, 성별 또는 인종 같은 특 징을 근거로 하는 결정에 의존하지 않은 채 인공지능을 훈련시킬 불충분한 자료만 있는 경우이다. - P312
인공지능이 그런 특징을 고려하지 못하도록 막을 수 있을까? ㅁㅁ 최근의실험은 그것이 할 수 있는 것을 그리고 자료 과학자들이 그렇게 하는 점점더 발전된 방법들을 개발 중임을 보여준다. 어떤 속성을 가진 대상(주로 사람)에 대한 기계 학습 모델의 편향성에 대한 가장 간단한 해법은 그 속성의비중을 낮추어서 인공지능이 의사 결정에서 그것을 고려하지 않도록 하는
것이다. 하지만 이것은 전반적으로 부정확한 결과에 이를 수 있는 조잡한 도구일 뿐이다. 101더 좋은 접근법은 조건법적 서술을 이용하는 것인데, 다른 변수들이 없어지고 바뀌는 경우에도 인공지능 시스템에 의해 동일한 결정이 내려지는지시험하는 것이다. 어떤 프로그램이 같은 결과에 도달하는지 검토하기 위해대상의 인종을 바꾸는 가정적인 모델을 운영해 봄으로써 인종 편향성을 시험할 수 있다. 102
반편향성 모델링 기술은 지속적으로 수정되고 향상되고 있다. 실비아 치아파Siluia Chiappe와 토머스 그레이엄Thomas Graham이 2018년 논문에서 조건법적 추론만으로는 편향성을 확인하고 없애는 데 항상 충분하지 않을 수 있다고 지적했다. 완전한 조건법적 모델은 성 편향성 때문에 더 많은 남성 지원자들이 어느 대학에 합격된 것을 확인할 수 있지만, 일부는 여학생들이 빈자리가 적은 과정에 지원했기 때문에 여성들이 더 낮은 합격률을 보였다는사실을 파악하지 못할 수 있다. 따라서 치아파와 그레이엄은 "불공정한 경로를따라 민감한 속성이 다른 반사실적 세계에서 취했을 결정과 일치하는 경우개인에게 공정한 결정이라고 말하는" 반사실적 모델링의 수정을 제안한다. 103
완전히 가치 중립적인 인공지능은 불가능한 생각일 수 있다. 실제로 일부 평자들은 "알고리즘은 피할 수 없이 가치 내재적"이라고 주장했다. 1매 인공지능으로부터 모든 가치관을 제거하려고 하는 대신 인공지능이 작동하는 특정사회의 가치관을 반영하는 인공지능을 설계하고 유지하는 것이 바람직한 접근 방법일 수 있다.
|