més

    Els límits de la intel·ligència artificial

    AI: Les conseqüències del descobriment de Joy Buolamwini, investigador del MIT Media Lab, que el reconeixement facial no veu amb precisió les cares de pell fosca.

    (Traduït de English de Google Gtranslate)

    Shalini Kantayya apunta als límits humans de les capacitats de Intel·ligència Artificial (AI) a la seva pel·lícula plena de fets, ben informada i fortament femenina.

    Amb el suport de Women Make Movies i amb el suport, entre d’altres, del Sundance Institute, Esbiaix codificat es basa en un elenc format principalment per personatges femenins, principalment autors i acadèmics, que són experts en els perillosos biaixos antidemocràtics tant de la portada com del comercial. AI aplicacions.

    Si busqueu raons per les quals us heu d’oposar a l’arrossegament totalitarisme dels Internet de tot, llavors aquest és un gran punt de partida amb una bibliografia que us podria mantenir fora de línia durant molts mesos.

    Coded Bias, una pel·lícula de Shalini Kantayya-still1-MTR
    Coded Bias, una pel·lícula de Shalini Kantayya

    Biaixos ocults

    L'heroïna clau de la pel·lícula és Joy Buolamwini, una jove candidata a doctorat negre al Laboratori de Mitjans de Comunicació de l'Institut de Tecnologia de Massachusetts (MIT).

    El brillant i segur Buolamwini, que combina l’intel·lecte precoç amb el talent per inventar poesia de rap afectiu, cau en la comprensió de la intel·ligència artificial intel·lectual quan un projecte de recerca que es basa en el reconeixement facial per permetre als usuaris d’una aplicació donar-se diverses màscares en línia, desenmascarar un fet inquietant: les aplicacions de reconeixement facial de les empreses tecnològiques gegants no detecten les cares negres, especialment les cares negres femenines, en un percentatge sorprenentment alt de casos.

    El que inicialment va ser una molèstia tècnica irritant en la seva recerca d’una petita i divertida aplicació aviat es converteix en una investigació seriosa sobre els biaixos ocults d’una Nova Tecnologia LED això ja és omnipresent a la majoria de països.

    Quan Buolamwini comença a buscar respostes, es troba amb dones que ja han començat a entendre la naturalesa insidiosa de la IA, inclosa Cathy O'Neil, antiga Wall Street assessora (que afirma que va ser contractada sense coneixements de la indústria dels serveis financers, sinó simplement perquè era bona per resoldre trencaclosques de matemàtiques).

    Si busqueu raons per les quals us heu d’oposar a l’arrossegant totalitarisme d’Internet de tot, aquest és un gran punt de partida

    O'Neil, una dona atractiva amb una gran línia de talls de cabell de disseny blau cel, és una friqui confessada que va tenir una epifania quan tenia 14 anys al campament d'estiu i es va adonar que podia resoldre el cub de Rubik en un instant. els seus dits.

    Buolamwini la coneix a Cambridge, Massachussets, en una signatura de llibres de Armes de destrucció de matemàtiques: com el Big Data augmenta la desigualtat i amenaça la democràcia, i s’inspira a aprofundir en les raons per les quals la IA suposa una amenaça (sobretot perquè, ja que és capaç d’aprendre sense observar, és efectivament una «caixa negra»).

    Ella ja és conscient que «el passat habita dins dels nostres alogritmes», veient com el biaix inconscient dels fundadors de la IA (blanc, home, classe mitjana) a la dècada de 1950 al Dartmouth College - ha sembrat el biaix inconscient en els conjunts de dades que s’utilitzaven per configura AI des de llavors.

    O'Neil és característicament assertiva en la seva visió de la IA: «An algorithm utilitza informació històrica per fer prediccions sobre el futur; el problema és que es tracta de qui posseeix el merda codi; les persones que el posseeixen després el desplegen en altres persones ... No hi ha simetria, no hi ha manera que les persones que no van obtenir targetes de crèdit l'utilitzessin contra el sistema de targetes de crèdit; no hi ha cap responsabilitat. »

    Tant per als usos comercials de la IA, que poden fer i poden causar molt de dany a la gent normal sense que mai se’ls faci responsable: fins a 4 milions de persones van perdre la llar durant la crisi de les subprime als EUA el 2008 com algorismes que prediuen possibilitats futures per defecte es van utilitzar per emetre avisos d’execució hipotecària.

    Un dels experts de la pel·lícula va assenyalar que era «el major arrasament de la riquesa negra de la història dels Estats Units», i va afegir que la «tirania d'aquest tipus de pràctiques de discriminació s'ha tornat opaca».

    Amb una referència ocasional a HAL 9000, l’ordinador que tot ho veu De Stanley Kubrick 2001: Una odissea de l'espai - i la inquietant Clare de Lune de Debussy que Kubrick va utilitzar amb un efecte tan gran, la pel·lícula passa a usos i abusos més sinistres de la IA.

    Coded Bias, una pel·lícula de Shalini Kantayya-still2-MTR
    Coded Bias, una pel·lícula de Shalini Kantayya

    Rellotge Gran Germà

    A Londres, la Policia Metropolitana ha estat provant, sense cap control regulatori, tecnologia aleatòria de reconeixement facial a nivell de carrer, utilitzant furgonetes sense marca (que no siguin logotips amb orgull, i aparentment sense rastre d’ironia, afirmant «Policia Metropolitana. Policia Total»).

    Aquí el grup de llibertats civils Rellotge Gran Germà està a punt de contrarestar la portada vigilància, dient als vianants que els està filmant un sistema de reconeixement facial sense el seu permís. Un home que s’amaga la cara mentre camina per la furgoneta és desafiat per la policia i se li aplica una multa sobre el terreny (presumiblement per comportament antisocial, una de les poques multes fàcils d’emetre que la policia pot desplegar, gràcies a la sentència de Gran Bretanya Conservador govern, el més de dretes de la història del país.)

    Un home que s'amaga quan camina al costat de la furgoneta és desafiat per la policia i se li aplica una multa sobre el terreny

    Big Brother Watch va dur a terme una campanya de llibertat d'informació i va trobar que el 98% de les coincidències dels sospitosos criminals trobats «coincidien incorrectament amb una persona innocent com una persona buscada».

    "Tenir la cara biomètrica en una base de dades policial és com tenir la vostra empremta digital o ADN i tenim lleis específiques al respecte", afirma un activista de Big Brother Watch. «La policia no pot prendre les seves empremtes digitals ni l'ADN ... Però en aquest sistema estrany que tenim, pot fer la foto biomètrica de qualsevol persona i mantenir-la en una base de dades policial. La policia ha començat a utilitzar la tecnologia de reconeixement facial al Regne Unit en absència absoluta de base legal. »

    Coded Bias, una pel·lícula de Shalini Kantayya-still3-MTR
    Coded Bias, una pel·lícula de Shalini Kantayya

    L’experiència xinesa

    La pel·lícula s’endinsa en l’experiència xinesa, on el reconeixement facial és una eina omnipresent partit Comunista control social, i molta gent ja s’hi ha domesticat - i fa una comparació amb els EUA, observant que, almenys a Xina, el govern està obert al que fa; a Amèrica, la majoria dels reconeixements facials i artificials continuen sota el radar.

    No tot són males notícies. La informació és poder i la de Buolamwini Lliga de justícia algorítmica ha tingut alguns èxits: el 10 de juny de 2020, Amazon va anunciar una pausa d’un any sobre l’ús policial de la seva tecnologia de reconeixement facial i, al juny d’aquest mateix any, els legisladors nord-americans van introduir una legislació per prohibir l’ús federal del reconeixement facial.

    No obstant això, encara no hi ha cap regulació federal dels EUA sobre algoritmes i cap acció política al Regne Unit contra l'ús que la Met fa de la insidiosa tecnologia antidemocràtica.

    Nick Holdsworthhttp://nickholdsworth.net/
    El nostre crític habitual. Periodista, escriptor, autor. Treballa principalment d’Europa Central i Oriental i Rússia.
    El 24è Festival de Documentals de Tessalònica anuncia les activitats d'Agora Docs i els terminis de presentacióAgora Docs torna per al proper 24è Festival de Documentals de Tessalònica, celebrat del 10 al 20 de març de 2022. El mateix #Agora Docs#...
    IDFA 2021: els guanyadors completsLa 34a edició #IDFA va anunciar els guanyadors dels programes de competició durant la cerimònia de lliurament dels premis IDFA 2021. La cerimònia...
    ChileDoc descendeix a IDFA amb una selecció diversa de produccions xilenesEl 34è Festival Internacional de Documentals d'Amsterdam té lloc del 17 al 28 de novembre de 2021. Amb la indústria mundial del documental...
    CONFLICTE: La nostra memòria ens pertany (dir.: Rami Farah)Com es pot sobreviure en temps de guerra? Per oblidar, o per recordar...?
    MEDI AMBIENT: Medusa (dir.: Chloé Malcotti)Com les activitats comercials químiques belgues van portar prosperitat i contaminació a un poble costaner italià.
    JUSTÍCIA: Jutges sota pressió (dir.: Kacper Lisowski)El malson populista de Polònia vist a través de la pressió sense precedents als jutges en un estat de la UE que s'està convertint ràpidament en un paria.
    BEIRUT: Pop (dir.: Karim Kassem)La quietud i el renaixement són un testimoni reflexiu de les conseqüències de la poderosa explosió de Beirut.
    CONFLICTE: Allà foscor i res més (dir: Tea Tupajic)Una dona bosniana busca respostes en un teatre enfosquit.
    CINEMA: La història de la guerra civil (dir: Dziga Vertov)Pensat perdut per sempre, l'arxiu de Dziga Vertov de 1921 sobre la guerra civil russa finalment s'estrena al públic 100 anys després.
    - Publicitat -

    potser també t'agradaRELACIONATS
    Us recomanem

    X