Як машыны наследуюць тэндэнцыі стваральнікаў

ІІ не трэба памятаць, каб быць шкодным

Калі машыны вучацца апрацоўваць мову, яны ўспадкоўваюць гендэрныя і расавыя ўхілы ад чалавечых пісьмовых узораў.

У турэцкай мове ёсць толькі адно займеннік "o", які выкарыстоўваецца для апісання "ён", "яна" і "гэта". Калі пераклад на турэцкую мову з займеннікам "o" перакладзены на ангельскую мову пры дапамозе Google Translate, алгарытм адгадвае, якім ангельскім займеннікам карыстацца - звычайна адгадваючы "ён", калі пол невядомы. У перакладзе выразы кшталту "ён лекар" і "яна медсястра", "ён працавіты" і "яна лянівы", што адлюстроўвае гендэрную прадузятасць. Многія алгарытмы вучацца апрацоўваць мову пры дапамозе напісання чалавека з узораў, такіх як артыкулы навін і старонкі Вікіпедыі. З гэтых моўных мадэляў яны ствараюць асацыяцыі паміж словамі, некаторыя праблемы, такія як "ён" - "яна", а "бліскучы" - "мілы". "З няяўнымі прадузятасцямі людзей, якія мадэлююцца праз мову, машыны навучаюцца сэксізму і расізму. пераважае ў нашай культуры.

Аргумент кітайскай пакоя Джона Сірла мяркуе, што машына можа імітаваць паводзіны чалавека, не разумеючы нічога, што ён сказаў ці зрабіў. Існуюць важныя доказы таго, што машыны таксама могуць прычыніць шкоду, не разумеючы нічога, што яны кажуць альбо робяць. Па словах Сцюара Расэла, навукоўца ў галіне Каліфарнійскага універсітэта Сцюара Расэла, распаўсюджанае непаразуменне ў тым, што машыны застаюцца небяспечнымі і карыснымі інструментамі для паўсядзённага жыцця, пакуль яны не «свядомыя». Тым не менш камп'ютэрныя алгарытмы могуць мець гендарныя і расавыя ўхілы, падобныя на іх стваральнікаў. Паколькі выкарыстанне алгарытмаў можа вар'іравацца ад фільтрацыі калектыву кандыдатаў на працу да кансультавання, як вынесці прысуд чалавеку за злачынства (зыходзячы з іншых, якія здзейснілі падобныя злачынствы), наступствы могуць вар'іравацца ад адмовы кваліфікаванай жанчыны-заяўніцы ў магчымасці атрымаць канкурэнтную працу да вынясення прысуду. нявінны чалавек, які трапіў у турму. Вынікі выкарыстання штучнага інтэлекту, прадузятага адносна пэўных груп людзей, могуць быць несправядлівымі і нават амаральнымі. Улічваючы, што AI не павінна быць «свядомым», каб пагражаць, з'яўленне прадузятага і свядомага ІІ павінна матываваць людзей працаваць да алгарытмаў дэзадаптацыі, каб яны не нацэліліся на пол і расу.

Кітайскі аргумент нумара дэманструе, што кампутар можа мець зносіны з людзьмі, нічога не разумеючы, выкарыстоўваючы аналогію мужчыны ў пакоі, выконваючы інструкцыю па напісанні паведамленняў кітайцы. Мужчына не ўмее размаўляць па-кітайску, але выконвае ўказанні ў кнігах, каб весці размову з жанчынай. Гэты сцэнар застаецца прадуманым эксперыментам, бо немагчыма пісаць інструкцыі па ўказанні з дастатковай колькасцю інфармацыі для таго, каб чалавек размаўляў па-кітайску, але інструкцыі з інструкцыямі былі напісаны для кампутараў на аснове чалавечай пісьменнасці. Калі мужчына ў гэтай аналогіі - гэта кампутар, прытрымліваючыся інструкцый яго кода, і код уключае гендэрныя і расавыя прадузятасці, чалавек, верагодна, выказвае гэтыя прадузятасці, не разумеючы, што ён кажа. Каб пазбегнуць зрушэння камп'ютэраў, людзі павінны перапісаць інструкцыі па ўжыванні кампутараў.

Сексісцкая мова ў алгарытмах

Даследчык з Microsoft, Адам Калай, меў падобную ідэю і ўзаемадзейнічаў з Бостанскім універсітэтам, каб працаваць над алгарытмамі ўхілення ад прадузятасці, такімі як Google Translate, якія ўзялі на сябе сэксісцкую мову дзякуючы чалавечай пісьменнасці. Калай і яго калегі накіраваны на ўстаўкі слоў - фрагменты кода, якія кампутары выкарыстоўваюць у якасці "слоўніка" для апрацоўкі мовы. Словы ўстаўкі кадуюць адносіны паміж словамі ў лічбах. Словы "сястра", "брат", "маці" і "бацька" будуць аб'ядноўвацца ў адно слова. Увядзенне адной пары слоў, напрыклад, "ён" і "яна", у алгарытм убудовы слоў выводзіць два словы з аднолькавым стаўленнем да "ён" і "яна", напрыклад, "ён" - "яна". . . "кампутарны праграміст" - "хатні вытворца".

Калай і яго калегі пачалі ўкладваць словы з-за таго, наколькі яны неабходныя для большасці праграм. Кампутарныя праграмісты падключаюць гэтыя алгарытмы да вялікіх праграм, якія выкарыстоўваюцца для вызначэння вынікаў пошуку, рэкламы і зместу сацыяльных медыя. Праграмісты могуць знайсці ўжо ўстаўленыя словы, што пазбаўляе іх ад неабходнасці распрацоўваць 300 вымярэнняў вектарнай прасторы, якія гэтыя алгарытмы выкарыстоўваюць самастойна, але прымаць іх як належнае, не перарабляючы ўхілы, якія яны праяўляюць, можа быць дорага. Адхілены алгарытм, які выкарыстоўваецца для звужэння колькасці будучых супрацоўнікаў, якія займаюцца праграмаваннем па камп'ютэры, хутчэй за ўсё, палічыць, што рэзюмэ мужчын будзе больш прыдатным, калі алгарытм больш цесна звязвае мужчынства з камп'ютэрным праграмаваннем.

Калай і яго калегі ўкаранілі новы метад, каб прымусіць алгарытмы ігнараваць пэўныя адносіны і абагульніць усе выпадкі, калі іх адносіны могуць быць праблематычнымі. Яго каманда разглядала словы, пол якіх дыктуецца ангельскай мовай, напрыклад, "актрыса" і "каралева", і праблемныя словы, якія маюць гендарны характар, як "медсястра" і "сасі". Яны змаглі адмеціць тэгі праблемных слоў, класіфікуючы іх як нейтральныя.

Словы над радком былі пазначаныя без пазнакі, класіфікуючы іх як нейтральныя, паколькі яны маюць поўны характар. На здымку: Адам Калай

Будзем спадзявацца, што іншыя кампутарныя праграмісты захопяць працу Калая і яго калегаў з укладаннем слоў, але можа быць не так зразумела, як адмяніць іншыя зрухі, у якіх машыны могуць быць прадузята. Biases таксама былі выстаўлены ў тэхніцы маркіроўкі малюнкаў машын, у прыватнасці, праграмным забеспячэнні для распазнання асоб і алгарытмах, якія выкарыстоўваюцца для рэкламы.

Расізм у праграмным забеспячэнні распазнання асоб

Праграмнае забеспячэнне Google Photos захоўвае і арганізуе фатаграфіі, распазнаючы прадметы і асобы на малюнках, каб іх класіфікаваць па людзях, жывёлам і г. д. Распазнаванне твару праграмы не навучаецца распазнаваць і адрозніваць людзей з больш цёмнай скурай. Адзін мужчына, Джэкі Элсін, адкрыў гэта на свой жах, калі адзін з яго афра-амерыканскіх сяброў быў намаляваны на малюнку як гарыла. Google сцвярджае, што супрацоўнікі розных рас распрабавалі Google Photos, але зразумела, што праграмнае забеспячэнне ўсё ж трэба ўдасканальваць, каб быць больш інклюзіўным і дакладным у адносінах да людзей з больш цёмнай скурай. Для людзей можа быць крыўдна і крыўдна бачыць сваіх сяброў і сябе пазначаць як розныя віды, асабліва калі гэтая тэхналогія выкарыстоўваецца для апраўдання расісцкай рыторыкі.

Праграмнае забеспячэнне iPhone X Face ID разблакавала тэлефон кітаянкі для свайго супрацоўніка, бо не змагла адрозніць твары людзей той самай расы, што прывяло да парушэння прыватнага жыцця.

Аналагічны выпадак датычыўся кітаянкі Хейлінг, чыя функцыя ідэнтыфікацыі асобы iPhone X разблакавала яе тэлефон пасля сканавання твару калегі. Праграмнае забеспячэнне Face ID было аб'яўлена як "адзін на мільён" шанец, што хто-небудзь іншы зможа разблакаваць iPhone X, таму выявілася, што з функцыяй камеры яе тэлефона нешта не так. Прывітанне замяніў тэлефон, але новы тэлефон таксама разблакуецца, калі ён праглядзе твар яе калегі. У гэтым выпадку, калі камера не змагла адрозніць твары людзей адной расы, гэта прывяло да парушэння канфідэнцыяльнасці, што магло выкрыць сакрэтную інфармацыю пра яе асабістую асобу. Праграму Face ID неабходна пераацэньваць для людзей розных рас, каб гарантаваць, што правы прыватнасці карыстальнікаў не парушаюцца.

Алгарытмы здагадкі, якія ўвекавечваюць стэрэатыпы

Алгарытмы прапаноў, якія выкарыстоўваюцца ў Google і іншых пошукавых сістэмах, могуць навучыцца карыстальнікам паказваць рэкламу, якая ўвекавечвае расавыя і гендэрныя стэрэатыпы. Пошук у Google пакажа рэкламу кампаніі, якая архівуе судзімасці пры пошуку імя, звычайна звязанага з чалавекам, які з'яўляецца афраамерыканцам. Прафэсар Гарвардскага ўнівэрсытэту, які спэцыялізуецца на прыватнасьці дадзеных, доктар Латанія Суіні, шукаў яе імя і бачыў рэкляму з надпісам "Латанія Суні, арыштаваны?" нягледзячы на ​​тое, што ў яе няма судзімасці. Яна вывучыла верагоднасць адлюстравання рэкламных паведамленняў аб судзімасцях і правяла пошук 2100 іншых "чорных" імёнаў, выявіўшы, што ў гэтых аб'явах на 25 адсоткаў больш шанцаў паказаць, калі "чорныя" імёны былі праведзены ў параўнанні з "белымі" імёнамі. Можна выказаць здагадку, што алгарытм прапаноў першапачаткова адлюстроўваў рэкламу як для "чорных", так і для "белых" імёнаў, але даведаўся, што карыстальнікі аддаюць перавагу націскаць на рэкламу толькі ў тым выпадку, калі яны шукаюць афра-амерыканскія імёны. Алгарытм вывучыў прадузятасць карыстальнікаў і ўлічыў яго для наступных пошукаў. Паказваючы рэкламу кампаніям, якія архівуюць судзімасці пры пошуку «чорных» імёнаў, алгарытм зараз узмацняе прадузятасць людзей, паказваючы ім, што яны могуць чакаць.

Небяспека ўзмацнення прадузятасці людзей з дапамогай тэхналогій па-ранейшаму застаецца пагрозай, але актыўнасць карыстальнікаў таксама можа паказаць, як яны ўвасабляюць стэрэатып. Іншыя даследаванні прыйшлі да высновы, што жанчынам паказваецца больш рэкламных аб'яваў пра нізкааплатную працу, чым мужчынам, але гэта можа быць таму, што жанчыны першапачаткова менш націскалі на больш высокааплатную рэкламу, праўда, лічачы, што рэклама да іх не адносіцца. Выкарыстанне алгарытмаў, прызначаных для налады карыстацкага досведу, можа прывесці да дыскрымінацыі, калі алгарытм ўлічвае ўжо існуючыя прадузятасці людзей.

Ухіленне прадузятасці і прыярытэтнасць аператыўных аперацый машын

Пра гэта можна даведацца пра алгарытмы дэактыўнага зрушэння, пра што сведчыў Калай і ягоныя калегі аб ухіленні ад укладання слоў, але меры, прынятыя для праграмных алгарытмаў, каб пазбегнуць прадузятасці, не былі прыярытэтнымі. Паколькі ў алгарытмах ёсць чалавечыя прадузятасці, якія ўзмацняюць дыскрымінацыю пэўных груп людзей, адказнасць людзей за прыняцце прафілактычных мер пры праграмаванні алгарытмаў для абароны ад прадузятасці. Магчыма, сьвядомыя машыны ў будучыні будуць мець рэфлексіўныя здольнасьці распазнаваць свае ўласныя прадузятасьці, але, як гэта стаіць цяпер, кампутары ня здольныя рабіць фемінісцкую крытыку. Пакуль кампутары не выконваюць задачы без прадузятасці і прадузятасці, яны не могуць разглядацца як аб'ектыўныя інструменты, якія людзі могуць выкарыстоўваць, каб дапамагчы ім у паўсядзённым жыцці. Для забеспячэння аб'ектыўнасці ў працы машын могуць прымяняцца тыя ж прынцыпы, якія забяспечваюць аб'ектыўнасць у навуковым метадзе. Мы можам аднесці аб'ектыўнасць да працы машыны, калі яе вынікі апрацоўваюцца неабаронена і непрадузята.

Магчыма, што аб'ектыўныя алгарытмы дадуць вынікі, якія людзі лічаць неадэкватнымі. Напрыклад, калі Google Translate сустракаецца з займеннікам на іншай мове з неадназначным гендэрам, аб'ектыўны пераклад можа ўключаць пустое месца, дзе ў прапанове знаходзіцца месца займенніка, каб пазначыць, што, на падставе абмежаванага кантэксту, пол невядомы. Хоць гэтыя вынікі для карыстальнікаў могуць не задавальняць, тэхналогіі ў многіх выпадках лепш прызнаваць свае недахопы, чым паказваць прадузятае вынік. Можа быць уведзена асаблівасць тэхналогіі маркіроўкі малюнкаў Google Photos, якая двойчы правярае вынікі маркіроўкі. Калі гарыла адзначана на малюнку сярод іншых фатаграфій толькі людзей, цалкам верагодна, што фатаграфіі не былі зробленыя ў заапарку, і такім чынам алгарытм можа зрабіць выснову, што яна мае недакладныя вынікі. Пры рызыцы пазначыць чалавека жывёлам, Google Photos будзе лепш паведамляць карыстальнікам, што ён не ў стане ідэнтыфікаваць людзей і прадметы на малюнку, чым аўтаматычна маркіраваць яго як жывёлу. Калі алгарытмы не могуць быць неадпарадкаваны неадкладна, пажадана не выпускаць іх у грамадства, пакуль яны не будуць старанна правераны.

Калі праграмісты палічаць, што нельга зняць алгарытм зрушэння, алгарытм не павінен быць даступны для грамадскага выкарыстання і павінен састарэць. Кампутарным праграмістам і рэкламадаўцам, магчыма, прыйдзецца перагледзець характар ​​алгарытмаў прапаноў. У той час як гэтыя алгарытмы здольныя ўлічваць інтарэсы спажыўцоў людзей, цяжка зразумець, якім чынам гэтым алгарытмам можна давяраць як аб'ектыўныя, калі іх сутнасць - прытрымлівацца перавагам карыстальніка. Рэалізацыя аб'ектыўных алгарытмаў рэкламы можа разграміць мэты арыентацыі на інтарэсы спажыўцоў, але гэта ліквідуе рызыку прафілявання альбо дыскрымінацыі людзей на аснове таго, націскаюць яны на рэкламу.

Існуе агульны наратыў, які заахвочвае людзей думаць, што штучны інтэлект будзе ўяўляць пагрозу толькі пасля таго, як ён стане «свядомым» і павярнуцца супраць нас. Аднак важна ліквідаваць непасрэдныя наступствы кампутараў, якія дэманструюць падобныя да чалавека прадузятасці, бо іх праграмаванне можа адрозніваць у залежнасці ад полу і расы, ствараючы няроўныя магчымасці. Паколькі мы праінструктавалі кампутары ў нашых прадузятасцях, мы несем адказнасць за іх зрушэнне і абсталяванне інструментамі для аб'ектыўнай працы. Навучанне іх, каб ахоўваць іх прадузятасці, можа дапамагчы нам навучыць нас самастойна.