Як уважлівы падыход да штучнага інтэлекту скарачае неаб'ектыўныя наборы даных
Рашэнням на базе штучнага інтэлекту патрэбны наборы даных, каб быць эфектыўнымі. І стварэнне гэтых набораў даных багата праблемай няяўнай прадузятасці на сістэматычным узроўні. Усе людзі пакутуюць ад прадузятасцяў (як свядомых, так і несвядомых). Ухілы могуць прымаць любыя формы: геаграфічныя, моўныя, сацыяльна-эканамічныя, сэксісцкія і расісцкія. І гэтыя сістэматычныя прадузятасці ўтвараюцца ў дадзеныя, што можа прывесці да прадуктаў ІІ, якія ўвекавечваюць і павялічваюць прадузятасць. Арганізацыям неабходны ўважлівы падыход, каб паменшыць прадузятасць, якая закрадаецца ў наборы даных.
Прыклады, якія ілюструюць праблему зрушэння
Адным з прыкметных прыкладаў прадузятасці гэтага набору дадзеных, які выклікаў шмат негатыўнай прэсы ў той час, было рашэнне для чытання рэзюмэ, якое аддавала перавагу кандыдатам-мужчынам, а не жанчынам. Гэта тлумачыцца тым, што наборы даных інструмента найму былі распрацаваны з выкарыстаннем рэзюмэ за апошняе дзесяцігоддзе, калі большасць заяўнікаў складалі мужчыны. Дадзеныя былі неаб'ектыўнымі, і вынікі адлюстроўвалі гэтую прадузятасць.
Яшчэ адзін шырока распаўсюджаны прыклад: на штогадовай канферэнцыі распрацоўшчыкаў Google I/O Google падзяліўся папярэднім праглядам інструмента дапамогі дэрматалогіі на базе штучнага інтэлекту, які дапамагае людзям зразумець, што адбываецца з праблемамі, звязаных з іх скурай, валасамі і пазногцямі. Памочнік па дэрматалогіі падкрэслівае, як ІІ развіваецца, каб дапамагчы ў ахове здароўя, але таксама падкрэсліла магчымасць прадузятасці пракрасціся ў ІІ пасля крытыкі, што інструмент неадэкватны для каляровых людзей.
Калі Google анансаваў інструмент, кампанія адзначыла:
Каб пераканацца, што мы ствараем для ўсіх, наша мадэль улічвае такія фактары, як узрост, пол, расу і тыпы скуры - ад бледнай скуры, якая не загарае, да карычневай скуры, якая рэдка пячэ.
Google, выкарыстоўваючы AI, каб дапамагчы знайсці адказы на распаўсюджаныя захворванні скуры
Але ў артыкуле ў Vice было сказана, што Google не выкарыстаў комплексны набор дадзеных:
Для выканання задачы даследчыкі выкарыстоўвалі набор навучальных даных з 64,837 12,399 малюнкаў 3.5 90 пацыентаў, размешчаных у двух штатах. Але з тысяч скурных захворванняў, прадстаўленых на фота, толькі XNUMX адсотка прыходзілі ад пацыентаў з тыпамі скуры па Фіцпатрыку V і VI - з карычневай скурай і цёмна-карычневай або чорнай скурай адпаведна. Паводле даследавання, XNUMX працэнтаў базы дадзеных складаліся з людзей са светлай скурай, больш цёмнай белай скурай або светла -карычневай скурай. У выніку тэндэнцыйнага адбору проб, дэрматолагі кажуць, што прыкладанне можа ў канчатковым выніку занадта або недастаткова дыягнаставаць людзей, якія не белыя.
Vice, новае дэрматалагічнае прыкладанне Google не прызначана для людзей з больш цёмнай скурай
Google у адказ заявіў, што ўдасканаліць інструмент, перш чым выпусціць яго афіцыйна:
Наш інструмент для дапамогі ў галіне дэрматалогіі на базе штучнага інтэлекту - гэта кульмінацыя больш чым трох гадоў даследаванняў. Паколькі наша праца была прадстаўлена ў Nature Medicine, мы працягвалі распрацоўваць і ўдасканальваць нашу тэхналогію, уключыўшы дадатковыя наборы даных, якія ўключаюць даныя, ахвяраваныя тысячамі людзей, і мільёны больш адабраных малюнкаў, звязаных са скурай.
Google, выкарыстоўваючы AI, каб дапамагчы знайсці адказы на распаўсюджаныя захворванні скуры
Наколькі мы маглі спадзявацца, што праграмы AI і машыннага навучання могуць выправіць гэтыя ўхілы, рэальнасць застаецца: яны толькі такія разумны паколькі іх наборы дадзеных чыстыя. У абнаўленні старой прымаўкі праграмавання смецце ў / смецце, Рашэнні AI толькі настолькі моцныя, наколькі якасць іх набораў даных з самага пачатку. Без карэкціроўкі праграмістаў гэтыя наборы даных не маюць фонавага вопыту, каб выправіць сябе - бо ў іх проста няма іншай сістэмы адліку.
Адказнае стварэнне набораў даных - гэта аснова ўсяго этычны штучны інтэлект. І людзі ў аснове рашэння.
Уважлівы AI - гэта этычны AI
Адсутнасць не адбываецца на пустым месцы. Неэтычныя або прадузятыя наборы даных узнікаюць у выніку няправільнага падыходу на этапе распрацоўкі. Спосаб барацьбы з памылкамі прадузятасці заключаецца ў прыняцці адказнага, арыентаванага на чалавека падыходу, які многія ў галіны называюць Уважлівым ШІ. Уважлівы AI мае тры важныя кампаненты:
1. Уважлівы ІІ арыентаваны на чалавека
З самага пачатку праекта ІІ, на этапах планавання, патрэбы людзей павінны быць у цэнтры кожнага рашэння. А гэта азначае, што ўсе людзі - не толькі падмноства. Вось чаму распрацоўшчыкам трэба разлічваць на разнастайную каманду людзей з глабальнага ўзроўню, каб навучыць прыкладання AI быць інклюзіўнымі і без прадузятасці.
Краўдсорсінг набораў даных з глабальнай, разнастайнай каманды гарантуе ранняе выяўленне і адфільтраванне збояў. Прадстаўнікі рознай этнічнай прыналежнасці, узроставых груп, полу, узроўню адукацыі, сацыяльна-эканамічнага паходжання і месцаў могуць больш лёгка выявіць наборы дадзеных, якія аддаюць перавагу аднаму набору каштоўнасцей над іншым, тым самым адсяваючы ненаўмысную прадузятасць.
Зірніце на галасавыя прыкладанні. Прымяняючы ўважлівы падыход да штучнага інтэлекту і выкарыстоўваючы магчымасці глабальнага пула талентаў, распрацоўшчыкі могуць улічваць такія моўныя элементы, як розныя дыялекты і акцэнты ў наборах дадзеных.
Стварэнне арыентаванай на чалавека структуры дызайну з самага пачатку мае вырашальнае значэнне. Гэта вельмі важна для таго, каб генераваныя, адабраныя і пазначаныя даныя адпавядалі чаканням канчатковых карыстальнікаў. Але таксама важна трымаць людзей у курсе на працягу ўсяго жыццёвага цыкла распрацоўкі прадукту.
Людзі ў пятлі таксама могуць дапамагчы машынам стварыць лепшы вопыт AI для кожнай канкрэтнай аўдыторыі. У Pactera EDGE нашы групы па праектах дадзеных AI, размешчаныя па ўсім свеце, разумеюць, як розныя культуры і кантэксты могуць паўплываць на збор і захаванне надзейных навучальных дадзеных AI. У іх ёсць неабходныя інструменты, каб пазначыць праблемы, кантраляваць іх і выправіць іх, перш чым рашэнне на аснове штучнага інтэлекту будзе ажыццёўлена.
Чалавек у пятлі AI - гэта праект «сеткі бяспекі», які спалучае ў сабе моцныя бакі людзей - і іх рознае паходжанне з хуткай вылічальнай магутнасцю машын. Супрацоўніцтва паміж людзьмі і ІІ неабходна наладзіць з самага пачатку праграм, каб неаб'ектыўныя даныя не сталі асновай праекта.
2. Уважлівы ІІ нясе адказнасць
Адказнасць - гэта гарантаваць, што сістэмы штучнага інтэлекту без прадузятасці і заснаваныя на этыцы. Гаворка ідзе пра тое, каб памятаць пра тое, як, чаму і дзе ствараюцца дадзеныя, як яны сінтэзуюцца сістэмамі ІІ і як яны выкарыстоўваюцца пры прыняцці рашэнняў, рашэнняў, якія могуць мець этычныя наступствы. Адзін са спосабаў для бізнесу зрабіць гэта - працаваць з недастаткова прадстаўленымі супольнасцямі, каб быць больш інклюзіўнымі і менш прадузятымі. У галіне анатацый дадзеных новыя даследаванні падкрэсліваюць, як шматзадачная мадэль з некалькімі анататарамі, якая разглядае этыкеткі кожнага анататара як асобную падзадачу, можа дапамагчы змякчыць магчымыя праблемы, уласцівыя тыповым метадам праўдзівасці, калі рознагалоссі анататараў могуць быць з-за недастатковага прадстаўлення і можа ігнаравацца ў сукупнасці анатацый да адной асноўнай праўды.
3. Даверлівы
Надзейнасць прыходзіць ад таго, што бізнес празрысты і тлумачыцца тым, як навучаецца мадэль ІІ, як яна працуе і чаму яны рэкамендуюць вынікі. Бізнесу патрэбны вопыт лакалізацыі AI, каб зрабіць магчымым для сваіх кліентаў зрабіць свае прыкладання AI больш інклюзіўнымі і персаналізаванымі, паважаючы крытычныя нюансы мясцовай мовы і карыстальніцкага досведу, якія могуць павысіць ці парушаць аўтарытэт рашэння AI з адной краіны ў іншую . Напрыклад, бізнес павінен распрацоўваць свае прыкладання для персаналізаванага і лакалізаванага кантэксту, уключаючы мовы, дыялекты і акцэнты ў галасавых праграмах. Такім чынам, прыкладанне прыносіць аднолькавы ўзровень складанасці галасавога вопыту для кожнай мовы, ад ангельскай да мала прадстаўленых.
Справядлівасць і разнастайнасць
У рэшце рэшт, уважлівы AI гарантуе, што рашэнні будуюцца на сумленных і разнастайных наборах дадзеных, дзе наступствы і ўплыў канкрэтных вынікаў адсочваюцца і ацэньваюцца да выхаду рашэння на рынак. Будучы ўважлівымі і ўключаючы людзей у кожную частку распрацоўкі рашэння, мы дапамагаем гарантаваць, што мадэлі AI застаюцца чыстымі, мінімальна прадузятымі і максімальна этычнымі.