2020 년 12 월 15 일- 지금까지 많은 사람들이 Google에서 Timnit Gebru 박사의 해고에 대해 들었을 것입니다. 그녀는 얼굴 인식 슬롯 무료체험에서 인종 및 성 편견을 노출시키는 획기적인 연구로 유명한 AI 편견 및 윤리 연구원입니다. 이 사건은 많은 Google 제품에 사용되는 Bert와 같은 대규모 언어 모델에 내재 된 편견을 언급 한 연구 논문을 중심으로했습니다. 우리는 세부 사항이 여전히 전개되고있는 이유와 장소를 알지 못하지만,이 혼란은 AI 슬롯 무료체험에서 그녀의 작업에 초점을 맞추고 공정성의 중요성을 가져옵니다..
공정성은 개인 정보 보호, 보안 및 투명성/ 설명과 마찬가지로 책임있는 AI의 주요 기둥 중 하나입니다. 우리가 AI 모델의 사용을보다 중요한 산업으로 확장함에 따라, 그들은 임시 인간 판단의 결정보다 공정 할 가능성이 있습니다. 그러나 모델에서 기존 바이어스를 증폭시킬 수 있습니다. AI 슬롯 무료체험 제작자는 편견을 적극적으로 완화하고 최선을 다해 공정하게 보장해야합니다. 그렇게하지 않으면 수익에 영향을 줄 수 있으며 평판 및 규제 위험이 필요합니다. 이것은 특히 공공 안전 및 보안 (PSS), 사이버 보안 및 사기 탐지 및 스마트 도시 등의 솔루션을 다양한 인구 통계 및 사회적 역학을 가진 다른 지역으로 확장 할 때입니다.
공정성 부족은 귀중한 AI의 채택을 방해 할 수 있습니다
COMPAS는 여러 미국 주에서 재범주의를 예측하기 위해 사용한 AI 도구 인 Compas는 백인보다 아프리카 계 미국인에 대한 허위 긍정의 두 배가있는 것으로 밝혀졌습니다. 슬롯 무료체험이 배치되기 전에이 암시 적 편견이 잡히지 않았기 때문에 많은 아프리카 계 미국인들이 재구성 될 것으로 잘못 예측되었습니다. 일부 주에서는 Compas 사용을 중단했습니다. 그러나 Compas와 같은 알고리즘은 재범을 예측하는 데 인간보다 훨씬 효과적인 것으로 나타났습니다. Brookings 의이 훌륭한 기사는 제작자가 교육 데이터 세트에서 편견을 완화하고 투명성과 결합하기위한 조치를 적극적으로 수행 할 때 Compas와 같은 위험 평가 도구가 형사 사법 결정을 조정하는 데 매우 가치가있을 수 있습니다. 모델에서 암시 적 편견을 관리하지 않으면 Compas가 완전히 활용되는 것을 방지했습니다.
얼굴 인식은 또 다른 논쟁적인 기술입니다. 이 슬롯 무료체험에서 편견의 증거는 잘 튀어 나왔습니다. 시민의 자유 단체는 슬롯 무료체험의 암묵적 편견으로 인해 그러한 기술의 사용에 반대하고 있으며 개인 정보 및 오용에 대한 우려. SF, Oakland 및 Boston의 도시에는 모두 정부 기관이이를 사용하는 것을 금지했습니다. 9 월 20 일, 포틀랜드시는 공공 장소에서 안면 인식 기술의 기업 사용조차 금지했습니다. Amazon, IBM 및 Microsoft와 같은 주요 기술 그룹은 그러한 기술의 판매를 법 집행에 일시적으로 중단했습니다. 안면 인식 기술은 생체 인식, 감시, ATM의 사기 보호, 게이트 액세스 등에 매우 가치가 있으며 사라지지 않습니다. 얼굴 인식 기술에 대한 더 큰 수준의 신뢰를 부여 할 수있는 회사는이 시장의 더 큰 슬라이스를 수집 할 수 있습니다.
AI 모델이 적극적으로 편견을 완화시키지 않고 공정성을 보장하기 위해 노력할 때 수익 기회 손실 또는 평판 히트의 일부 예일뿐입니다.
편견이 어떻게 처음에 소개됩니까?
바이어스가 세 가지 주요 길을 통해 모델에 도입됩니다 :
1) 문제의 프레임
문제를 먼저 정의 할 때 바이어스를 도입 할 수 있습니다. 사용할 대상 변수와 최소화 할 비용 기능을 결정합니다. 신용도를 예측할 때 은행의 AI 모델의 목표는 대출 상환율을 극대화하거나 이익을 극대화해야합니까? 후자의 경우, 은행은 약탈 적 행동을 설정하는 서브 프라임 대출의 연장을 극대화하기로 결정할 수 있습니다.
2) 바이어스 데이터 세트
왜곡 된 샘플
과거 데이터 세트에 특정 바이어스가 포함되어 있으면 모델이 이러한 바이어스를 복제합니다. 범죄 위험 평가 도구에서 경찰이 처음에 범죄율이 높은 지역을 순찰하는 경향이 있다면 범죄 위험 평가 모델은 같은 지역에서 더 많은 범죄 사례를 기록 할 가능성이 높습니다..
비 대표 교육 데이터 또는 클래스 불균형
Buolamwini와 Gebru (성별 색조) 의이 연구에서 얼굴 인식 기술에서 여성과 소수 민족의 높은 오류율은 대표적인 교육 데이터로 추적 될 수 있습니다. 두 개의 얼굴 분석 벤치 마크에서 사용되는 데이터 세트는 흰색 얼굴 (~ 80%)으로 압도적으로 구성되었습니다. 어두운 피부 여성은 결국 가장 오 분류 된 그룹 (최대 34.7%의 오류율)과 가벼운 피부 남성의 0.8%로 끝났습니다.
프록시
모델이 보호 된 속성에 대한 통계 프록시를 사용하면 바이어스가 발생할 수 있습니다.
2015 년 Amazon은 고용 결정을위한 이력서 선별 검사를 자동화하는 ML 도구를 개발했습니다. 이 모델은 성별 중립적 인 방식으로 기술 직업 후보를 심사하지 않았다는 것을 발견했다. 이 모델은 실제로 남성 후보자가 바람직하다는 것을 스스로 가르쳤다. “여성 체스 클럽”에“여성”이라는 단어가 포함 된 이력서에 처한 이력서. 이러한 명시적인 성별 용어를 조정 한 후에도이 모델은 여전히“캡처”,“실행”과 같은 설명자를 사용한 후보자들을 선호했습니다. 남성 엔지니어의 이력서에서 "공격적인"용어가 더 자주 발견됩니다. 아마존은 결국 채용 알고리즘을 사용할 수 있도록 결정했습니다.
이 연구 논문에서 연구원들은 지역 사회 및 범죄 데이터 세트 (미국 인구 조사, 법 집행 및 FBI의 범죄 데이터로 구성)를 기반으로 지역 사회 당 범죄율을 예측하려고 시도했습니다. 122 개의 변수에서 인종과 명시 적으로 연결된 32 개의 기능을 제거했습니다. 그러나 그들은 여전히 나머지 90 개 중 58 개 기능의 조합으로 구성된 레이스 대리를 찾았습니다.이 프록시는 0.85의 경주와 연관성을 가졌으며, 데이터 세트에서 가장 강력한 연관성을 가진 단일 기능은 0.73의 연관성을 가졌습니다. 프록시의 기능 조합을 점검하는 것은 실생활에서 매우 어렵습니다. 다행히이 논문은 모델 결정에 영향을 미치는 프록시를 발견하기위한 도구의 예를 제시했습니다.
3) 데이터 준비
마지막으로, 어떤 기능을 포함 시키거나 제거 할 기능이 문제에 고유합니다. 나이는 고용 소프트웨어에서는 차별적 일 수 있지만 의료 모델에서는 예측할 수 있습니다. 부채 대 소득 비율은 인종과 관련이있을 수 있지만 신용도를 예측하는 데 영향을 줄 수 있습니다. 따라서 루프 인간은 여전히 빚 대 소득 비율을 기능으로 포함하기로 결정할 수 있습니다.
완화 전략
공정성의 정의는 간단한 것이 아닙니다. 공정성에 대한 표준 정의는 실제로 없습니다. 지불 위험 프로파일에 관계없이 동일한 비율로 대출을 동일한 비율로 연장해야합니다. 아니면 각 그룹의 지불 회수율에 비례하는 대출을 연장해야합니까? 우리는 하나의 주요 저명한 소수 그룹 또는 모든 그룹의 이익을 고려해야합니까? 공정한 것이 다른 사람들 그룹에서 다르게 정의된다면 후자를하는 것은 매우 어려워집니다. 또한 수학적으로 공정성을 설명하는 여러 가지 방법이 있으며 그 중 일부는 상호 배타적입니다 (수학 소개). 마지막으로 공정성 속성을 통합하기 위해 모델 정확도를 얼마나 멀리 희생합니까? 궁극적으로 이것들은 팀이 만들어야하는 계산 된 트레이드 오프입니다.
1. 다양한 데이터 과학 팀
이것이 다양한 데이터 과학 팀을 갖는 것이 중요합니다. 경험이 다른 배경의 다른 구성원은 실험 설계 및 실행에서 사각 지대를 감지하는 데 도움이 될 수 있습니다.
2. 레드 팀
사이버 보안의 빨간 팀과 유사하게, 엔지니어, 데이터 과학자 및 비즈니스 사람들이 함께 생각하는 것과 관련이 있습니다. 이것은 합성 데이터 세트 (Edge Case를 통합하기에 충분히 광범위한)의 설계에 관여하는 사람들과 동일한 그룹 일 수 있거나 드리프트를 감지하거나 의미가없는 예측을 발견하는 데 관여하는 사람들과 동일 할 수 있습니다..
3. 프로세스를 설정하고 도구를 활용하여 AI 편향을 테스트하고 완화하십시오
편견 및 윤리적 문제를 완화하는 데 도움이되는 일부 도구 :
AI의 윤리적 및 공정성은 사례 별 접근이 필요합니다. 그러나 신뢰할 수있는 슬롯 무료체험을 구축하는 데 점점 더 중요한 기둥입니다. AI 슬롯 무료체험을 구축하는 기업으로서, 우리는 ML 프로젝트를 생각할 때 윤리와 공정성을 인식해야하며, 편견을 악화시키고 적절한 트레이드 오프를하기 위해 올바른 질문을하기 쉬운 상황을 알고 있어야합니다.
저작권 © 2025 St Engineering
메일 링리스트에 가입하면를 읽고 동의한지 확인합니다.이용 약관및개인 크레이지 슬롯 정책.