Questo sito contribuisce alla audience di

Dopo 3 anni, Google non ha sistemato il suo algoritmo razzista in Google Foto

Correva il 2015 e Google Foto era stato messo sotto ai riflettori per un caso davvero incredibile: il riconoscimento automatico delle foto aveva identificato e categorizzato il volto di persone afroamericane sotto la categoria “gorilla”.

Oltre ad essere assolutamente razzista, il problema aveva lasciato molto da pensare su ciò che è su cosa comporta l’utilizzo dell’intelligenza artificiale e Google aveva messo una pezza semplicemente bloccando la categoria. Oggi, dopo 3 anni, BigG sembra non essere ancora riuscita a risolvere completamente il problema.

A quanto pare, infatti, questo periodo non è bastato per far fare un passo in avanti all’AI dietro Google Foto, e la categoria “gorilla” (ma anche “scimpanzé” e “scimmia”) rimane tutt’ora bloccata: una pezza bella e buona, che non rappresenta però una soluzione.

Google avrebbe inoltre ristretto il funzionamento del suo algoritmo per prevenire altri scandali, e ad esempio una ricerca per “black man” o “black woman” fornisce come risultato immagini di persone in bianco e nero, sorteggiate per genere ma non per colore della pelle.

Questo blocco, un po’ troppo semplicistico, sottolinea ancora una volta quanto sia difficile addestrare un’intelligenza artificiale per essere robusta a tal punto da risultare effettivamente intelligente.

Secondo voi la scelta di mantenere il blocco (andando quindi di fatto a limitare la funzionalità dell’algoritmo) rappresenta la volontà di non spendere risorse per trovare una vera soluzione o semplicemente una barriera ulteriore per evitare ogni possibilità di scandalo? Diteci la vostra con un commento qui sotto.

Fonte: Theverge

Commenti

Ti invitiamo ad usare toni consoni e di rimanere in tema all'argomento trattato, in caso contrario, il sistema automatico potrebbe oscurare il tuo messaggio e potrebbero trascorrere fino a 48h per la verifica ed un'eventuale autorizzazione.
TuttoAndroid si riserva comunque il diritto di allontanare le persone non adatte a tenere un comportamento corretto e rispettoso verso gli altri.

  • Agamemnon

    Hahahaha, l’algoritmo è “rasista”… :D :D :D

    Un algoritmo è un algoritmo, non ha idee, ideologie od opinioni.
    Ma quando si da del “rasista” a tutto e tutti non ci si vergogna nemmeno di definire tale un insieme di numeri…

  • Andrearocca

    Se hanno la faccia che assomiglia a quella dei scimmioni non è colpa dell’algoritmo è la realtà dei fatti.

  • Emilio Bologna

    L’ignoranza è confondere un algoritmo automatico con il razzismo. Siamo nel 2018 e la caccia alle streghe non è finita. Il dito del moralista è sempre puntato.

  • Marco

    Stiamo vivendo in un periodo dove la gente si scandalizza o indigna o denuncia per ogni cosa, e questa cosa ultimamente sta sfuggendo decisamente di mano. Stiamo arrivando al punto dove ogni singola persona deve pesare ogni singola parola o azione (anche quelle più banali) per la paura di essere attaccato pubblicamente o denunciato. Sicuramente l’algoritmo di Google ha degli errori. Questo erori se sono ancora presenti dopo tutto questo tempo però non vuole assolutamente dire che Google non vuole risolverli, magari semplicemente sono più complesso del solito e hanno difficoltà a sistemarli. Additarli come razzisti mi pare davvero eccessivo.

  • Algoritmo razzista? Cosa vuol dire? I volti neri naturalmente riflettono meno luce dei volti bianchi e quindi l’algoritmo ha meno informazione a disposizione per il riconoscimento.

  • WONDERBRAun

    Comunque da sempre gli algoritmi per il riconoscimento facciale hanno problemi con i nostri cugini abbronzati… Ricordo anche la Kinect (rip) sollevò un polverone simile.

  • Maurizio

    Effettivamente la persona raffigurata in foto ha i tratti somatici di un primate,quindi è chiaro che il software incorre in questo errore non essendo adeguatamente sviluppato.

    • Agamemnon

      “non essendo adeguatamente sviluppato” è riferito al software o alla persona raffigurata in foto? :)

  • almi05

    😱😱😱😱😲

  • Dario Chemello

    Secondo me dovremmo, nel 2017, renderci conto che un algoritmo non può essere razzista… ma lo sono gli uomini. Quindi con buona pace di benpensanti o malpensanti io toglierei da subito questi blocchi. La macchina fa solo il suo dovere e non vuole in alcun modo offendere nessuno. Il bello è che poi in USA hanno on Trump come presidente… Ridicoli.

    • Diego Vianello

      Sicuramente il miglior commento letto fin’ora… ragazzi, l’algoritmo categorizza per immagini simili, è agnostico, non sa se sta confrontando un gorilla con un africano o una tazza con una ciotola del cane… restituisce un risultato quantomeno plausibile, e la gente viene a dire che è razzista? Un algoritmo?!? E cosa ancora più assurda, Google lo modifica bloccando la categoria? E cosa ulteriormente ancora più assurda, ci si domanda in questo articolo come mai non l’ha ancora “sistemato”?!? Ma cosa c’è da sistemare? Ma benedetti voi, se io assomiglio a Renzi, l’algoritmo mi dice che sono Renzi e io dovrei offenderti perché ha detto la verità oggettiva, dimostrando tra l’altro di funzionare ottimamente?
      Veramente non ho più parole…

    • Fabio Bognandi

      Però secondo me siano nel 2018, non so te.

      • Dario Chemello

        Ops…

  • Andrea

    Non è certo colpa di Google se gli africani somigliano ai primati, lo dico senza essere assolutamente razzista, ma è un dato di fatto che alcune caratteristiche (vedi colore della pelle e naso) ricordano i gorilla

  • centrale

    Sistemassero anche Assistant in italiano che fa pietà

  • paolo

    Si tratta di una scelta del tutto legittima, pratica ed efficace. In tal modo si coniuga il dovere di evitare atteggiamenti razzisti con il diritto di optare per una soluzione economica.

  • leonardo

    Penso che effettivamente l’algoritmo certe volte sbagli anche molto,per esempio nel riconosciemento dei volti certe volte mi appaiono video in qui dice che sono presenti alcune persone che non c’erano

  • daddario

    Ahahahahahahahahahahahahahaha H&M può accompagnare solo!

    • StriderWhite

      Quello era un pelino peggio…

  • Stranger Thing

    Secondo me, a meno che in Google non lavorino solo bianchi, è evidentemente un problema complesso addestrare una AI in tutto e per tutto. Detto questo, mi sembra chiaro che una limitazione simile vada risolta a tutti i costi.

Top