Kā pārdomāta pieeja AI samazina neobjektīvas datu kopas

Neobjektīvas datu kopas un ētiskais AI

Mākslīgiem risinājumiem ir nepieciešamas datu kopas, lai tās būtu efektīvas. Un šo datu kopu izveide ir saistīta ar netiešu novirzes problēmu sistemātiskā līmenī. Visi cilvēki cieš no aizspriedumiem (gan apzinātiem, gan neapzinātiem). Neobjektivitātei var būt dažādas formas: ģeogrāfiska, lingvistiska, sociālekonomiska, seksistiska un rasistiska. Un šīs sistemātiskās novirzes tiek iekļautas datos, kā rezultātā var rasties AI produkti, kas saglabā un palielina neobjektivitāti. Organizācijām ir nepieciešama apzināta pieeja, lai novērstu neobjektivitāti datu kopās.

Piemēri, kas ilustrē neobjektivitātes problēmu

Viens ievērojams šīs datu kopas novirzes piemērs, kas tajā laikā guva daudz negatīvas preses, bija CV lasīšanas risinājums, kas deva priekšroku vīriešu kandidātiem, nevis sievietēm. Tas ir tāpēc, ka darbā pieņemšanas rīka datu kopas tika izstrādātas, izmantojot pēdējās desmitgades CV, kad lielākā daļa pretendentu bija vīrieši. Dati bija neobjektīvi, un rezultāti atspoguļoja šo neobjektivitāti. 

Vēl viens plaši izplatīts piemērs: Ikgadējā Google I/O izstrādātāju konferencē Google dalījās ar AI darbināma dermatoloģijas palīgrīka priekšskatījumu, kas palīdz cilvēkiem saprast, kas notiek ar problēmām, kas saistītas ar viņu ādu, matiem un nagiem. Dermatologa asistents uzsver, kā mākslīgais intelekts attīstās, lai palīdzētu veselības aprūpē, taču tas arī uzsvēra, ka AI var iezagties aizspriedumiem, jo ​​tika izteikta kritika, ka rīks nav piemērots krāsainiem cilvēkiem.

Kad Google paziņoja par rīku, uzņēmums atzīmēja:

Lai pārliecinātos, ka veidojam ikvienu, mūsu modelis ņem vērā tādus faktorus kā vecums, dzimums, rase un ādas tipi - no gaišas ādas, kas nedeg, līdz brūnai, kas reti deg.

Google, AI izmantošana, lai palīdzētu atrast atbildes uz bieži sastopamiem ādas stāvokļiem

Bet rakstā Vice teikts, ka Google neizdevās izmantot iekļaujošu datu kopu:

Lai veiktu uzdevumu, pētnieki izmantoja apmācību datu kopu, kurā bija 64,837 12,399 attēli no 3.5 90 pacientiem, kas atrodas divos štatos. Bet no tūkstošiem attēlā redzamo ādas slimību tikai XNUMX procenti bija no pacientiem ar Fitzpatrick ādas tipu V un VI — tiem, kas pārstāv attiecīgi brūnu ādu un tumši brūnu vai melnu ādu. Saskaņā ar pētījumu XNUMX procentus datu bāzes veidoja cilvēki ar gaišu ādu, tumšāku baltu ādu vai gaiši brūnu ādu. Neobjektīvās paraugu ņemšanas rezultātā dermatologi saka, ka lietotne var izraisīt pārmērīgu vai nepietiekamu diagnozi cilvēkiem, kuri nav balti.

Vice, Google jaunā dermatoloģijas lietotne nebija paredzēta cilvēkiem ar tumšāku ādu

Google atbildēja, sakot, ka pilnveidos rīku pirms tā oficiālas izlaišanas:

Mūsu ar AI darbināmais dermatoloģijas palīgrīks ir vairāk nekā trīs gadus ilga pētījuma kulminācija. Kopš mūsu darbs tika parādīts Nature Medicine, mēs esam turpinājuši attīstīt un pilnveidot savu tehnoloģiju, iekļaujot papildu datu kopas, kas ietver tūkstošiem cilvēku ziedotus datus un miljoniem citu ar ādu saistītu attēlu.

Google, AI izmantošana, lai palīdzētu atrast atbildes uz bieži sastopamiem ādas stāvokļiem

Lai arī cik mēs cerētu, ka mākslīgais intelekts un mašīnmācīšanās programmas varētu labot šīs novirzes, realitāte paliek nemainīga: tās ir tikai gudrs jo to datu kopas ir tīras. Atjauninot veco programmēšanas sakāmvārdu atkritumi iekšā/atkritumi ārāAI risinājumi ir tikai tik spēcīgi, cik ir to datu kopu kvalitāte no sākuma. Ja programmētāji neveic labojumus, šīm datu kopām nav pietiekamas pieredzes, lai tās pašas labotu, jo tām vienkārši nav citu atskaites sistēmu.

Datu kopu veidošana atbildīgi ir visu pamatā ētiskais mākslīgais intelekts. Un cilvēki ir risinājuma pamatā. 

Uzmanīgs AI ir ētisks AI

Neobjektivitāte nenotiek vakuumā. Neētiskas vai neobjektīvas datu kopas rodas no nepareizas pieejas izstrādes posmā. Veids, kā apkarot neobjektivitātes kļūdas, ir pieņemt atbildīgu, uz cilvēku vērstu pieeju, ko daudzi nozarē sauc par Mindful AI. Uzmanīgajam AI ir trīs svarīgi komponenti:

1. Uzmanīgs AI ir uz cilvēku centrēts

Kopš AI projekta sākuma plānošanas stadijās katra lēmuma centrā ir jābūt cilvēku vajadzībām. Un tas nozīmē visus cilvēkus – ne tikai apakškopu. Tāpēc izstrādātājiem ir jāpaļaujas uz daudzveidīgu globālu cilvēku komandu, lai apmācītu AI lietojumprogrammas, lai tās būtu iekļaujošas un bez novirzēm.

Datu kopu piesaiste no globālas, daudzveidīgas komandas nodrošina, ka novirzes tiek identificētas un agrīni filtrētas. Dažādu etnisko piederību, vecuma grupu, dzimumu, izglītības līmeņa, sociālekonomiskās izcelsmes un atrašanās vietas pārstāvji var vieglāk pamanīt datu kopas, kas dod priekšroku vienai vērtību kopai, nevis citai, tādējādi novēršot neparedzētu neobjektivitāti.

Apskatiet balss lietojumprogrammas. Piemērojot pārdomātu AI pieeju un izmantojot globālā talantu kopuma spēku, izstrādātāji datu kopās var ņemt vērā lingvistiskos elementus, piemēram, dažādus dialektus un akcentus.

Ir ļoti svarīgi no paša sākuma izveidot uz cilvēku vērstu dizaina sistēmu. Tas ir tāls ceļš, lai nodrošinātu, ka ģenerētie, atlasītie un marķētie dati atbilst galalietotāju cerībām. Bet ir arī svarīgi, lai cilvēki būtu informēti visā produkta izstrādes dzīves ciklā. 

Cilpas cilvēki var arī palīdzēt mašīnām radīt labāku AI pieredzi katrai konkrētai auditorijai. Pactera EDGE mūsu AI datu projektu komandas, kas atrodas visā pasaulē, saprot, kā dažādas kultūras un konteksti var ietekmēt uzticamu AI apmācības datu vākšanu un pārvaldību. Viņiem ir nepieciešamie rīki, lai atzīmētu problēmas, uzraudzītu tās un novērstu tās, pirms uz AI balstīta risinājuma sāk darboties.

Human-in-the-loop AI ir projekta “drošības tīkls”, kas apvieno cilvēku stiprās puses un viņu dažādo pieredzi ar mašīnu ātro skaitļošanas jaudu. Šī cilvēku un AI sadarbība ir jāizveido jau programmu sākumā, lai neobjektīvi dati neveidotu projekta pamatu. 

2. Uzmanīgs AI ir atbildīgs

Būt atbildīgam nozīmē nodrošināt, ka AI sistēmās nav aizspriedumu un ka tās ir balstītas uz ētiku. Tas nozīmē, ka jāņem vērā, kā, kāpēc un kur dati tiek izveidoti, kā tos sintezē AI sistēmas un kā tos izmanto, pieņemot lēmumus, kuriem var būt ētiska ietekme. Viens no veidiem, kā uzņēmums to var izdarīt, ir strādāt ar nepietiekami pārstāvētām kopienām, lai tās būtu iekļaujošākas un mazāk neobjektīvas. Datu anotāciju jomā jauni pētījumi izceļ to, kā vairāku piezīmju autoru vairāku uzdevumu modelis, kas katra piezīmju autora etiķetes uzskata par atsevišķu apakšuzdevumu, var palīdzēt mazināt iespējamās problēmas, kas raksturīgas tipiskām zemes patiesības metodēm, ja anotatoru domstarpības var izraisīt nepietiekama pārstāvība un var tikt ignorēts, apkopojot anotācijas vienai pamata patiesībai. 

3. Uzticams

Uzticamību nodrošina tas, ka uzņēmums ir pārredzams un izskaidrojams, kā AI modelis tiek apmācīts, kā tas darbojas un kāpēc viņi iesaka rezultātus. Uzņēmumam ir nepieciešamas zināšanas par AI lokalizāciju, lai tā klienti varētu padarīt savus AI lietojumus iekļaujošākus un personalizētākus, ievērojot kritiskās nianses vietējā valodā un lietotāju pieredzi, kas var padarīt vai izjaukt AI risinājuma uzticamību dažādās valstīs. . Piemēram, uzņēmumam ir jāizstrādā savas lietojumprogrammas personalizētiem un lokalizētiem kontekstiem, tostarp valodām, dialektiem un akcentiem balss lietojumprogrammās. Tādā veidā lietotne nodrošina vienāda līmeņa balss pieredzes izsmalcinātību visās valodās — no angļu valodas līdz nepietiekami pārstāvētām valodām.

Taisnīgums un dažādība

Galu galā pārdomāts mākslīgais intelekts nodrošina, ka risinājumi ir balstīti uz godīgām un daudzveidīgām datu kopām, kurās tiek uzraudzītas un novērtētas konkrētu rezultātu sekas un ietekme pirms risinājuma nonākšanas tirgū. Apzinoties un iesaistot cilvēkus ikvienā risinājuma izstrādes daļā, mēs palīdzam nodrošināt, ka AI modeļi paliek tīri, minimāli neobjektīvi un pēc iespējas ētiskāki.

Ko jūs domājat?

Šī vietne izmanto Akismet, lai samazinātu surogātpastu. Uzziniet, kā tiek apstrādāts jūsu komentārs.