Waarom sluiten techreuzen gezichtsherkenningstechnologie af?


Tot slot heeft Microsoft zich aangesloten bij Facebook en aangekondigd met pensioen te gaan met de AI-powered gezichtsanalyse tools, met inbegrip van die om emotionele toestand en identiteit af te leiden geslacht, leeftijd, glimlach, gezichtshaar, haar en make-up.

Tot nu toe had Microsoft toegang tot de open-ended API-technologie die gezichten van mensen kan scannen en helpen hun emotionele toestand af te leiden op basis van hun gezichtsuitdrukkingen of bewegingen.

De tech reus zei dat het zal stoppen met het aanbieden van deze functies aan nieuwe klanten van juni 21, terwijl bestaande klanten hun toegang ingetrokken op Juni 30, 2023.

Verder toegevoegd dat de beslissing is genomen als onderdeel van Microsoft ‘ s ‘Responsible AI Standard’, een kader om te begeleiden hoe het bouwt AI-systemen.

“AI wordt steeds meer een deel van ons leven, en toch, onze wetten blijven achter. Ze hebben niet ingehaald met de unieke risico ‘ s van AI of de behoeften van de samenleving,” zei Natasha Crampton, chief responsible AI officer bij Microsoft.

“Terwijl we tekenen zien dat overheidsmaatregelen op AI zich uitbreiden, erkennen we ook onze verantwoordelijkheid om op te treden. Wij zijn van mening dat we moeten werken aan het waarborgen van AI-systemen zijn verantwoordelijk door ontwerp,” zei ze in een verklaring.

Rij over gezichtsherkenningstechnologie

In feite, Microsoft is niet de eerste om dit systeem te negeren als Meta al had aangekondigd dat het Facebook gezichtsherkenningssysteem zou afsluiten, het verwijderen van de gezichtsscan gegevens van meer dan een miljoen gebruikers.

In tegenstelling tot’ gezichtsherkenning’, die helpt bij het vergelijken van een gedetecteerd gezicht met een database van gezichten, gaat’ gezichtsherkenning ‘verder dan om waarde toe te voegen aan de omgeving en om meer details over de persoon en zijn locatie te geven op basis van afbeeldingen en video’ s.

Hoewel de nauwkeurigheid van gezichtsherkenning als biometrisch hulpmiddel lager is dan Irisherkenning en vingerafdrukherkenning, werd het op grote schaal gebruikt door verschillende overheden en particuliere bedrijven in geavanceerde mens–computer interactie, videobewaking en automatische indexering van beelden vanwege de voordelen van contactloze functie, vooral tijdens de pandemie.

Echter, gezichtsherkenning (FR) technologie is uitgegroeid tot het middelpunt van een breed scala van raciale, etnische en geslacht vooroordelen. Het heeft raciale controverse opgeroepen met problemen zoals het schenden van de privacy van burgers, het maken van onjuiste identificaties, het aanmoedigen van gender-normen en worden gebruikt in raciale profilering.

Hier zijn een aantal bizarre bevindingen op FR:

Een onderzoek van de Universiteit van Colorado toonde aan dat gezichtsherkenningssoftware van Amazon, Clarifai, Microsoft en anderen 95% accuraat was voor cisgender mannen, maar vaak transgenders verkeerd identificeerden.
Een andere studie door onderzoekers aan de Universiteit van Maryland bleek dat gezicht detectie diensten van Amazon, Microsoft, en Google blijven gebrekkig en meer kans om te falen met oudere, donkerder huid mensen in vergelijking met hun jongere, ‘witter’ tegenhangers.
FR heeft de neiging om de voorkeur te geven aan “vrouwelijke-presenterende” mensen, terwijl het discrimineren van bepaalde fysieke verschijningen.
In de studie van de Universiteit van Maryland testten de onderzoekers de diensten die worden aangeboden door Amazon, Microsoft en Google, met behulp van meer dan vijf miljoen beelden met kunstmatig toegevoegde artefacten zoals vervagen, ruis en weer. Ze vonden zichtbare vooringenomenheid die hoger was in veel resultaten.
Amazon ‘ s face detection API werd gevonden 145% meer kans om een gezicht detectie fout te maken voor de oudste mensen.
Amazon API heeft de neiging om minder fouten te maken met vrouwelijke gelaatstrekken in afbeeldingen dan mannelijke mensen.
Het totale foutenpercentage voor de lichtere en donkere huidtypes was respectievelijk 8,5% en 9,7% – een toename van 15% voor de donkere huidtypes.
Met name Dim verlichting verslechterde het detectiefoutpercentage voor sommige demografische gegevens.
“We vonden dat oudere mensen, mannelijke presenteren individuen, mensen met een donkere huidtypes, of in foto’ s met een zwak omgevingslicht hebben allemaal hogere fouten, variërend van 20-60% … geslacht schatting is meer dan twee keer zo slecht op beschadigde beelden als het is op schone beelden; leeftijd schatting is 40% erger op beschadigde beelden,” coauteurs van de Maryland studie schreef.

Een studie uitgevoerd door onderzoekers aan de Universiteit van Virginia bleek dat twee prominente onderzoek-beeldcollecties weergegeven gendervooroordeel.

Een andere verzameling van 80 miljoen kleine afbeeldingen bleek een reeks racistische, seksistische en anderszins aanstootgevende annotaties te bevatten. Bijna 2000 beelden werden gelabeld met het N-woord, en labels als “verkrachtingsverdachte” en “kinderverkrachter.”

In een bizarre klacht in 2015 wees een software-ingenieur erop dat de beeldherkenningsalgoritmen in Google Photos zijn zwarte vrienden labelden als “gorilla’ s.”

Hetzelfde algoritme heeft aangetoond dat Google ’s Cloud Vision API thermometers had gelabeld die door een zwarte persoon als “geweren” terwijl thermometers gehouden door een lichte huid persoon als ” elektronische apparaten.”

Amazon, Microsoft en Google hadden in 2019 de verkoop van gezichtsherkenningsdiensten grotendeels stopgezet, maar hebben tot nu toe geweigerd een moratorium op hun gegevens of producten op te leggen.

Tracy Pizzo Frey, managing director van responsible AI bij Google Cloud, zegt dat het FR-systeem zijn beperkingen heeft, maar de bias-detectie blijft” een zeer actief onderzoeksgebied “bij Google” omdat deze ons helpen onze API te verbeteren.”