Facebook cilvēka un AI maisījums audio transkripcijai tagad ir pakļauts privātuma pārbaudei Eiropā – TechCrunch


Facebook vadošais privātuma regulators Eiropā tagad uzņēmumam pieprasa detalizētu informāciju par balss-teksta funkcijas darbību Facebook Messenger lietotne un kā tā atbilst ES tiesību aktiem.

Vakar Bloomberg ziņoja, ka Facebook izmanto cilvēku darbuzņēmējus, lai transkribētu lietotņu lietotāju audio ziņojumus, taču tā privātuma politikā nav skaidri minēts fakts, ka patiesi cilvēki varētu klausīties jūsu ierakstus.

Lapā Facebook palīdzības centrā ir arī piezīme, kurā teikts: “Balss uz tekstu izmanto mašīnmācīšanos”, taču nesaka, ka šo funkciju nodrošina arī cilvēki, kas strādā Facebook, lai klausītos.

Īrijas Datu aizsardzības komisijas pārstāvis mums teica: “Papildus mūsu pastāvīgajai sadarbībai ar Google, Apple un Microsoft saistībā ar personas datu apstrādi audio ierakstu manuālas transkripcijas kontekstā tagad mēs meklējam no Facebook detalizētu informāciju par attiecīgo apstrādi un to, kā Facebook uzskata, ka šāda datu apstrāde atbilst viņu GDPR saistībām . ”

Bloomberg ziņojums seko līdzīgām atklāsmēm par AI palīgtehnoloģijām, ko piedāvā citi tehnoloģiju giganti, tostarp Apple, Amazon, Google un Microsoft – kuras pēdējās nedēļās ir piesaistījušas arī Eiropas privātuma regulatoru uzmanību.

Tas mums saka, ka hype ap AI balss palīgiem ir joprojām glancēšana virs daudz mazāk augsto tehnoloģiju aizmugures. Pat ja mašīnmācības mārketinga guff stiprinājumi tika izmantoti, lai aizklātu “mehāniskā tītara” komponentus (t.i., cilvēkus), kas nepieciešami, lai tehnoloģija varētu izpildīt prasības.

Šis patiešām ir ļoti vecs stāsts. Asprātība: Pilns desmitgadē Pirms tam tika paziņots, ka Lielbritānijas startup ar nosaukumu Spinvox, kas apgalvoja, ka ir attīstījusi balss atpazīšanas tehnoloģiju, lai balss pasta ziņojumus pārveidotu par īsziņām, ļoti lielā mērā sliecas uz zvanu centriem Dienvidāfrikā un Filipīnās…, kur strādā, patiesi, cilvēki.

Atgriežoties pie mūsdienīgajām tehnoloģijām, pēc Bloomberg ziņojuma Facebook tika paziņots, ka tā apturēja cilvēku transkripcijas šā mēneša sākumā – pievienošanās Apple un Google, pārtraucot manuālo audio fragmentu pārskatīšanu par attiecīgajiem balss AI. (Amazon kopš tā laika ir pievienojis atteikšanos lietotnes Alexa iestatījumiem.)

Mēs jautājām Facebook, kur Messenger lietotnē tas ir informējis lietotājus, ka cilvēku darbuzņēmēji var tikt izmantoti viņu balss tērzēšanas / audio ziņojumu pārrakstīšanai; un kā tā vāca Messenger lietotāju piekrišanu šādai datu apstrādes formai – pirms cilvēku atsauksmju apturēšanas.

Uzņēmums neatbildēja uz mūsu jautājumiem. Tā vietā runasvīrs mums sniedza šādu paziņojumu: “Līdzīgi kā Apple un Google, vairāk nekā pirms nedēļas mēs apturējām audio apskatu. ”

Facebook arī aprakstīja audio fragmentus, ko tas nosūtīja darbuzņēmējiem, kā maskētus un de-identificētus; teica, ka tos savāc tikai tad, kad lietotāji ir izvēlējušies transkripciju Messenger; un tika izmantoti tikai AI transkripcijas veiktspējas uzlabošanai.

Tas arī atkārtoja uzņēmuma ilgstošu atspēkojumu lietotāju bažām par vispārēju slepenu noklausīšanos no Facebook, sakot, ka nekad neklausās cilvēku mikrofonus bez ierīces atļaujas vai bez tiešas lietotāju aktivizēšanas.

Tomēr galvenais jautājums ir tas, kā Facebook apkopo atļauju datu apstrādei.

Piemēram, uzņēmums nesen, piemēram, izmantoja manipulatīvas piekrišanas plūsmu, lai iedvesmotu lietotājus Eiropā ieslēgt sejas atpazīšanas tehnoloģiju – mainot savu iepriekšējo nostāju, kas pieņemta, reaģējot uz iepriekšēju normatīvo iejaukšanos, par tehnoloģijas izslēgšanu visā blokā.

Tātad ļoti daudz kas atkarīgs no tā, cik precīzi Facebook ir aprakstījis datu apstrādi jebkurā brīdī, kurā tas lūdz lietotājiem piekrist tam, ka viņu balss ziņojumus pārskata cilvēki (pieņemot, ka tas paļaujas uz piekrišanu kā savu juridisko pamatu šo datu apstrādei).

Maz ticams, ka arī piekrišanas apvienošana vispārējos tehniskos noteikumos par produkta izmantošanu ir saskaņā ar ES privātuma likumiem, ņemot vērā, ka bloka Vispārējā datu aizsardzības regulā ir noteikts, ka piekrišanai jābūt ierobežotai mērķim, kā arī tai jābūt pilnībā informētai un brīvi sniegtai.

Ja Facebook paļaujas uz likumīgām interesēm, lai apstrādātu Messenger lietotāju audio fragmentus, lai uzlabotu AI veiktspēju, būtu jāsabalansē savas intereses ar jebkādu risku cilvēku privātumam.

Balss AI šajā ziņā ir īpaši problemātiska, jo audio ierakstos var iekarot arī nelietotāju personas datus – ņemot vērā, ka cilvēki atrodas ierīces tuvumā (vai tiešām persona, kas atrodas tālruņa līnijas otrā galā un atstāj jums ziņojumu) varēja iegūt viņu personiskos datus, pat nekad neesot bijusi iespēja piekrist tam, ka Facebook darbuzņēmēji to uzklausīs.

Google palīga fragmentu noplūde Beļģijas presei nesen uzsvēra gan ierakstu jutīgo raksturu, gan šādu ierakstu radīto atkārtotas identificēšanas risku – žurnālistiem bija iespēja identificēt dažus no ierakstiem.

Vairāki preses ziņojumi arī ir ierosinājuši, ka tehnoloģiju gigantu nodarbinātie darbuzņēmēji ikdienā pārklausa intīmas detaļas, kas tiek uzņemtas, izmantojot virkni produktu, kas ietver iespēju ierakstīt audio un straumēt šos personiskos datus mākoņdatu apstrādei.