IDA overvåger medarbejdere med uigennemskuelig AI: »Vi ved, at systemet ikke forstår alt«

25. oktober kl. 04:0024
talegenkendelse
Illustration: Nanna Skytte.
Ingeniørforeningen blæser til kamp mod AI-drevet overvågning af medarbejdere, men fagforeningen benytter selv den slags værktøjer på sine egne medarbejdere
Artiklen er ældre end 30 dage

Fej for egen dør, før du fejer for andres. Sådan lyder et godt, gammelt ordsprog.

I sidste uge kunne man i Politiken læse, at Ingeniørforeningen IDA sammen med HK og forskningsprojektet  Algoritmer, Data og Demokrati, er gået »til kamp mod overvågning.«

Få fuld adgang til DataTech

DataTech er til professionelle, der arbejder med data og analytics.

Få 3 uger gratis prøve abonnement til DataTech. Betalingskort er ikke påkrævet, og du vil ikke blive flyttet til et betalt abonnement efterfølgende.

Du kan også få tilsendt et tilbud til dig.

Abonnementsfordele
vpn_key
Fuld adgang til DataTech
Alt indhold på DataTech er åbent for dig, så du kan nyde det fra din computer, tablet eller mobil.
drafts
Kuraterede nyhedsbreve
Nyheder, interviews, tendenshistorier og meget mere, leveret til din indbakke.
Adgang til andre medier
Hver måned får du 6 klip, som kan bruges til permanent at låse op for indhold på vores andre medier.
thumb_up
Adgang til debatten
Deltag i debatten med andre professionelle.
24 kommentarer.  Hop til debatten
Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
25
1. november kl. 07:48

Det er jo NETOP Ingeniørens kritiske artikler for fx MitID og AI-algoritmer der hæver niveauet af kritik, således at det IKKE er sølvpapirs-hatte-snak. Hermed positivt grundlag for hævet teknisk niveau for debat af samfundets indretning med brug af ny teknologi. Og så mht. denne artikels emne "demografisk profilering vha. AI-ansigts- og talegenkendelse", så syntes jeg IKKE man kan være for kritisk når fortidens SciFi-forfattere med dystopiske historier i portefølgen snart ikke længere kan betegnes som SciFi

12
26. oktober kl. 23:56

Hvorfor kalder Version2 ikke sig selv "Maskinstormernyt". Det vil være mere passende. Therese Moreau skriver stort set udelukkende artikler om mulig forkert eller fejlagtig brug af AI og om AI's begrænsninger. Hvordan det harmonerer med ingeniørers ønske om at anvende teknologi til at forbedre samfundet og forbedre organisationers og virksomheders ydeevne er meget svært at få øje på. I dette tilfælde virker det som om Capturi ikke har taget højde for EU's AIA forordning, som kommer til at stille skrappe krav til brugen af AI på en række områder. Det skal de naturligvis gøre noget ved. Ligesom IDA forsikring bør stille det som krav til deres AI leverandører på såkaldt højrisiko-AI områder. Men AI kan ikke beskyldes for at være årsagen til, at man vælger en performanceorienteret tilgang til medarbejderne med alskens målinger. Det er et valg ledelsen har foretaget og som de kan gøre både med og uden AI. AI kan heller ikke beskyldes for at introducere særlige dataproblemer, snarere tværtimod da alle data kan anonymiseres og krypteres (hvilket Capturi sikkert gør?), hvorimod de optagelser af telefonsamtaler som stort set alle callcentre har brugt siden 1995, netop til træning og performanceformål, ikke har den mulighed. Indlæggene tyder på, at mange tror, at det skulle være noget nyt at foretage en sådan "overvågning" via bedømmelse af samtaler for de enkelte medarbejdere. Ironisk nok, så anses sådanne optagelser i øvrigt typisk som et stort problem af forbrugerorganisationerne, men det forholder sig reelt omvendt. Det burde være et forbrugerkrav, at enhver kundesamtale blev optaget og gemt, så den pågældende virksomhed ikke kan løbe fra den rådgivning og evt. løfter, som de har givet og muligvis efterfølgende vil forsøge at komme udenom. Det er i den grad i forbrugerens interesse at blive beskyttet mod de store firmaer her. Men idéen om at mennesker er bedre og slet ikke hører forkert eller tager fejl på niveau med AI får lov at herske. Fx er også mennesker betydeligt bedre til at høre, hvad en kvinde siger end en mand over telefonen, i radioen mv. Det gælder ikke kun AI. Det skyldes at kvinders stemmer er mere højfrekvente. Tilsvarende har mange mennesker problemer med at forstå alle ord, hvis der tales med dialekt. Det er heller ikke specifikt for AI. Men maskinstormeriet får lov at herske. Nej, lad os skrue tiden tilbage, forbyde den nye teknologi og forlade os på papirmapper og den gode gamle dømmekraft uden den teknologi som ingeniører har frembragt til data-analyser og den slags pjat. Det vil meget lavt sat kræve ca. 500.000 flere medarbejdere i DK, hvis vi skal være på samme videns-serviceniveau, som i dag (hvis det overhovedet er muligt). Det fixes nemt, mens vi venter på den næste maskinstormer-artikel fra V2.

19
27. oktober kl. 12:57

Hej Bent.
Mange tak for din kommentar og fordi du læser Version2.

Et par ting.

For det første kritiserer du Therese for at skrive artikler om forkert brug af AI og AIs begrænsninger, og du udtrykker forvirring over, hvordan det harmonerer med ønsket om at bruge teknologi til at gøre samfundet bedre.

Her må jeg bare sige, at jeg som redaktionschef for Version2 er af den overbevisning, at kritisk journalistisk dækning og offentlig diskussion af nye teknologiers faldgruber og begrænsninger er helt centralt, hvis man vil have det optimale ud af teknologien.

I forhold til din kritik af Therese specifikt, vil jeg gerne understrege, at Therese skriver de artikler, hun aftaler med mig. Jeg lægger, sammen med den øvrige ledelse, den redaktionelle linje på Version2, og Thereses glimrende dækning er 100 procent afstemt med mig. Derfor bør enhver kritik af linjen også rettes til mig, og jeg tager altid meget gerne imod input fra kloge folk som dig.

Fang mig på adf@ing.dk eller 20 12 82 74 any time eller kig forbi til en kop kaffe og en snak.

Mvh Adam, redaktionschef på Version2.

17
27. oktober kl. 10:04

Hvordan det harmonerer med ingeniørers ønske om at anvende teknologi til at forbedre samfundet og forbedre organisationers og virksomheders ydeevne er meget svært at få øje på.

Det er jo ikke en nagelfast definition.

Lige nu pågår der en valgkamp, hvor man diskuterer hvad "et bedre samfund" vil sige.

For en stor del af os er et rigere samfund ikke "et bedre samfund", hvis det er på bekostning af vores individuelle frihed. Folk med autoritær tankegang ser meget anderledes på dette.

Organisationer og virksomheder har deres egne formål, men er underlagt regler, så de forhåbentligt bidrager til "et bedre samfund".

IDA skal varetage deres medlemmers interesser. Gør de det, hvis de ikke sikrer at medlemmernes oplysninger kun bruges til det relevante formål?

Så er vi ved Cloud spørgsmålet. Hvis data er gjort tilgængelige for folk, som er underlagt USAs lovgivning, eller kinesisk, indisk etc. så er oplysningerne ikke sikret.

14
27. oktober kl. 07:54

Hvorfor kalder Version2 ikke sig selv "Maskinstormernyt".

Hvorfor kalder f. eks. KL ikke sig selv "Singularity University (eller DareDisrupt) Country Club"? Det ville være mere passende.

"Therese Moreau skriver stort set udelukkende artikler om mulig forkert eller fejlagtig brug af AI og om AI's begrænsninger. "

Ja - det er der i den grad brug for som modvægt til BigTechs bestikken sig ind hos alle beslutningstagere - her kan man se, hvordan det bl. a. foregår:

"It-milliardær om partiernes erhvervsklubber: »Det er jo ikke formuer, vi snakker om« Det er vigtigt, at politikere og erhvervsliv mødes og taler om samfundets problemer. Derfor er der ikke noget odiøst i, at virksomhedsledere betaler til partiernes erhvervsklubber, lyder det fra direktør i Netcompany André Rogaczewski. ...... Topchefen mener, at samfundet får stor gavn af, at toppolitikerne mødes med erhvervslivet og snakker om de problemer, Danmark står overfor. Han understreger dog, at der er forskel på at støtte et parti og så deltage i et netværk. »Der er stor forskel på, om man helhjertet finansierer et politisk parti eller en politiker og så at deltage i et netværk med 20, 30 eller 50 andre, hvor man får adgang til at kunne debattere nogle emner med ligesindede og eller eksperter,« siger André Rogaczewski og tilføjer:"https://www.berlingske.dk/oestergaards-salon/it-milliardaer-om-partiernes-erhvervsklubber-det-er-jo-ikke

"Hvordan det harmonerer med ingeniørers ønske om at anvende teknologi til at forbedre samfundet og forbedre organisationers og virksomheders ydeevne er meget svært at få øje på."

Måske er der også ingeniører, som ikke er 100% overbeviste om, at den aktuelle AI-udvikling faktisk forbedrer samfundet, og organisationers og virksomheders ydeevne, uden at det har for store omkostninger rent menneskeligt?

"I dette tilfælde virker det som om Capturi ikke har taget højde for EU's AIA forordning, som kommer til at stille skrappe krav til brugen af AI på en række områder. Det skal de naturligvis gøre noget ved. "

Ja, præcis - i denne historie har både leverandør og kunde i den grad svigtet. Er de dumme og uvidende, eller bevidst svigagtige? Det er rimeligt at få afdækket, derfor er disse historier vigtige.

"Men AI kan ikke beskyldes for at være årsagen til, at man vælger en performanceorienteret tilgang til medarbejderne med alskens målinger. Det er et valg ledelsen har foretaget og som de kan gøre både med og uden AI."

Det er jo faktisk netop de menneskelige beslutningstagere bag denne AI, og deres beslutningsgrundlag, som historien fokuserer på. og det må vel være tilladt at forholde sig kritisk til deres beslutninger (og til hele tankegangen om, at AI skal løse den slags opgaver).

"hvorimod de optagelser af telefonsamtaler som stort set alle callcentre har brugt siden 1995, netop til træning og performanceformål, ikke har den mulighed. Indlæggene tyder på, at mange tror, at det skulle være noget nyt at foretage en sådan "overvågning" via bedømmelse af samtaler for de enkelte medarbejdere."

Jeg tror, mange her konsekvent siger "nej tak" til at være med i disse (og så håber vi - måske lidt naivt - , at det faktisk bliver respekteret). I dette tilfælde lyder det nærmest som om, man som bruger ikke kan fravælge at være med. Så må det være helt rimeligt at spørge til, hvad de opsamlede data om medlemmet bruges til - og hvordan?

Det må også være tilladet at forholde sig kritisk til det menneskesyn, som afspejles i at lade en AI-dims smække en meget personlig vurdering af en medarbejder på på væggen i et kundecenter?

"Men idéen om at mennesker er bedre og slet ikke hører forkert eller tager fejl på niveau med AI får lov at herske. Fx er også mennesker betydeligt bedre til at høre, hvad en kvinde siger end en mand over telefonen, i radioen mv. Det gælder ikke kun AI. Det skyldes at kvinders stemmer er mere højfrekvente. Tilsvarende har mange mennesker problemer med at forstå alle ord, hvis der tales med dialekt. Det er heller ikke specifikt for AI. Men maskinstormeriet får lov at herske. "

Ja - men almindelige optagelser får ikke deres eget liv i BigTechs totalovervågende Cloud, hvorfra der ikke er nogen vej ud. Ens data har på den mest ubehagelige måde nærmest opnået evigt liv kloden over - et liv, man absolut ikke selv har nogen kontrol over. Det har BigTech.

"Det vil meget lavt sat kræve ca. 500.000 flere medarbejdere i DK, hvis vi skal være på samme videns-serviceniveau, som i dag (hvis det overhovedet er muligt). "

Skal der virkeligt være en kundeservicemedarbejder for hver 10. borger? Det vil jeg gerne se dokumentation for. Hvordan klarede man disse opgaver, inden disse teknologiers indtog? Mon ikke det har noget at gøre med virksomheders (og myndigheders) mere og mere ublu krav om at vide alt om alle? Vi skal tilpasse vore krav til viden til det, vi faktisk kan levere uden at umenneskeliggøre samfundet.

Så vidt jeg ved, har du en toppost indenfor dette område? Det er forståeligt, at du så stort set kun ser fordelene. Men må jeg foreslå lidt modvægt: Cathy O'Neils "Weapons of Math Destruction". Hun havde selv en glimrende karriere som AI-specialist, indtil hun begyndte at få øjnene op for alle farerne og bagdelene, og blev frafalden:https://www.goodreads.com/author/show/6928121.Cathy_O_Neil

Jeg er taknemmelig for, at der faktisk er en smule medier, her Version2, som tør tage kampen op med BigTech - det er Davids kamp mod Goliath, men der er i den grad brug for dem.

Tak, Version2 - jeg håber, at I overlever kampen, det er en modig indsats!

20
27. oktober kl. 16:50

Nils Holm Jørgensen skal åbenbart ikke have noget af at svare på uddybende spørgsmål.

Det efterlader mig med oplevelsen af, at der i ret høj grad er tale om undvigende "ikke-svar" i hans kommentar.

10
26. oktober kl. 16:00

Der stilles i denne tråd nogle spørgsmål, og jeg vil her forsøge at svare på, hvordan vi bruger det nye system til optagelse og analyse af telefonsamtaler i IDA Forsikring.

Vi har gennem mere end et årti arbejdet med tilbagemeldinger fra IDA Forsikrings medlemmer – fx inviteres de til at score os efter hver kontakt. Det vælger ca. 8% at gøre. Scoren er ikke det centrale for os – det er mere de konkrete tilbagemeldinger, positive som negative, som bruges til at udvikle vores service og til at udvikle vores medarbejdere. Det sker i dialog mellem den enkelte medarbejder og enten deres chef eller den kollega, som er uddannet til at give feedback – ofte med udgangspunkt i en nærmere dialog med det medlem, som er enten meget begejstret eller meget sur.

Vi har årligt 100.000 telefonsamtaler med IDA Forsikrings medlemmer, og det er helt naturligt for os at at bruge ny teknologi til at få et større indblik i, hvordan de samtaler forløber, og hvordan de opleves. På den måde bliver indsigten fra systemet et yderligere element i udviklingen af servicen og i udviklingen af medarbejderne.

Alt foregår i dialog, og ingen medarbejdere eller medlemmer profileres eller vurderes mekanisk med udgangspunkt i systemet.

Der er med leverandøren indgået en databehandleraftale, som er godkendt af IDAs DPO, og data opbevares efter lovens ånd og bogstav og anvendes kun af IDA Forsikring. De slettes efter 5 år.

Ethvert medlem får mulighed for at få slettet en optaget samtale, hvilket kun meget få har gjort.

Sluttelig har systemet den praktiske effekt, at enhver samtale kan sendes – krypteret – til et medlem, såfremt en misforståelse opstår, hvorved misforståelsen kan udredes.

Med venlig hilsen Nils Holm Jørgensen, direktør, IDA Forsikring

23
28. oktober kl. 13:00

Vi kan se, at der er behov for at præcisere lidt mere. Det vil jeg forsøge her. Inden Captura blev implementeret har en styregruppe med bl.a. vores DPO gennemgået en risikovurdering af systemet i forhold til GDPR for at sikre, at IDA Forsikrings brug af systemet lever op til alle krav i GDPR. Det betyder bl.a. at alle data opbevares indenfor EU og sendes altså ikke til 3. lande. Det er en del af databehandleraftalen. Vi profilerer ikke medlemmerne i segmenter i forhold fx køn, alder, geografi, etnicitet el. lign. Det er vigtigt at gentage, at medlemmet informeres om optagelsen og hvad vi bruger den til og at der er mulighed for at få optagelsen slettet. Systemets kvalitet i forhold til bl.a. sprogforståelse bliver løbende evalueret, herunder, hvad der kan være af misforståelser eller fejlfortolkninger. Det er en del af dialogen mellem medarbejdere og leder og systemet har derfor heller ingen ansættelsesretlig indflydelse.

Med venlig hilsen Grit Munk Chefkonsulent for it og dataetik, IDA

24
28. oktober kl. 13:31

Tak for uddybning. Jeg er stadig forvirret (kan være min fejl), og har en fornemmelse af, at der er meget, som ikke siges, så jeg prøver igen:

  • Har IDA fuldt overblik over, hvor data befinder sig, dvs. ikke i en cloud med amerikansk ejerskab? Det er jo ikke nok, at data befinder sig i EU - der må ikke være en amerikansk ejer/databehandler involveret, så vidt jeg ved. Heller ikke en med sæde i EU.
  • "Vi profilerer ikke medlemmerne i segmenter i forhold fx køn, alder, geografi, etnicitet el. lign. "Jeg har problemer med at forstå den sætning. Hvad er det I og Capturi faktisk gør? Ingenting? Foregår der anden profilering end den nævnte, som I ikke gør?
  • "Det er vigtigt at gentage, at medlemmet informeres om optagelsen og hvad vi bruger den til og at der er mulighed for at få optagelsen slettet."Hvilken information får medlemmet - meget gerne ordret? I mine øjne er det ikke tilstrækkeligt at fortælle medlemmet, at optagelserne bruges til undervisningsbrug. Det siger jo intet om, at de resulterer i offentlig udhængning af kundeservicemedarbejdere i servicecenteret via AI. Måske har medlemmet ikke lyst til at deltage i det?
  • Ingen af forklaringerne er gode forklaringer for at smække en AI-score af medarbejdernes samtaler op på væggen i et kundecenter. Det er dybt usympatisk.
22
28. oktober kl. 10:36

Det er altsammen fint, men ikke det der er mest interessant. Hvis IDA forsikring var en selvstændig privat virksomhed kunne I gøre det her, som der helt sikkert er mange andre der gør. Men IDA er vel primært en fagforening og ikke et telemarketing eller forsikringsselskab - håber jeg. Og det ville være godt med en udtalelse fra IDA fagforening som forholder sig til hele artiklen, medarbejderforhold og interessekonflikter og ikke kun fra direktøren i IDA forsikring.

15
27. oktober kl. 09:12

Vi har gennem mere end et årti arbejdet med tilbagemeldinger fra IDA Forsikrings medlemmer – fx inviteres de til at score os efter hver kontakt.

Som tallene også siger: Surveys gider "vi" altså bare ikke på en almindelig torsdag!

Nu hvor vi ved at det er gratis kalibreringsdata til at "grounde" en ML-algoritme, som "vi" heller ikke går ind for, så er der endda en god grund til at vi ikke gider!

13
27. oktober kl. 07:04

Der er med leverandøren indgået en databehandleraftale, som er godkendt af IDAs DPO, og data opbevares efter lovens ånd og bogstav og anvendes kun af IDA Forsikring. De slettes efter 5 år.

Det er stort set kun regnskabsdata og kontrakter, som lovligt kan opbevares i 5 år. Lige så snart personoplysninger ikke længere er relevante, skal de slettes jf. dataminimeringsprincippet.

Fagforeningsmedlemskab er en følsom personoplysning, hvorfor IDA Forsikring bør være ekstra opmærksom på at holde sig på dydens smalle sti - almindelige personoplysninger bliver pr. definition følsomme, når de knyttes til et medlemskab af IDA.

Når det er sagt, så er GDPR elastik i metermål. Det er umuligt at være 100 % compliant, så DPO'ens rolle er primært at sikre, at der ikke er udsigt til for store bøder, hvis Datatilsynet en dag skulle få tid til at kigge forbi.

Går man efter 100 % compliance, kommer man ud i unødvendige benspænd og tosserier som forbud mod SMS'er i fagforeningsarbejde m.v.

11
26. oktober kl. 18:01

Det er rigtigt fint, at du kommer med uddybning, Nils Holm Jørgensen.

Alt foregår i dialog, og ingen medarbejdere eller medlemmer profileres eller vurderes mekanisk med udgangspunkt i systemet.

Så sidder jeg tilbage med lidt ubesvarede spørgsmål:

  • Hvad er det så, Capturi gør? Er det ikke et AI-sysem til at analysere kundesamtalerne med, som straks sætter medarbejderens point op på lystavlen?
  • Hvad betyder "profileres mekanisk"? Er detikke netop fidusen ved Capturi?
  • Foregår der nogen form for profilering af medlemmerne via samtalen?

"Der er med leverandøren indgået en databehandleraftale, som er godkendt af IDAs DPO, og data opbevares efter lovens ånd og bogstav og anvendes kun af IDA Forsikring. De slettes efter 5 år."

  • Kan/vil Ida lægge denne databehandleraftale frem?
  • Bliver medlemmerne bedt om samtykke i forbindelse med samtalen?
  • I givet fald: Hvilke oplysninger får medlemmet om brugen inden samtykket?
  • Hvad bruges medlemmernes del af samtalen til?
  • Hvad har Ida fået oplyst omkring, hvor data behandles/opbevares?
  • Hvad ved Ida om evt. underleverandører/databehandlere?

"Hun bekræfter, at IDA Forsikring hverken har set eller efterspurgt verificerbar dokumentation eller en uafhængig ekspertvurdering af, hvordan Capturis system fungerer, hvor velfungerende det er eller om systemet indeholder bias. Mie Stattau insisterer dog på, at Capturi både skriftligt og mundtligt har forklaret IDA Forsikring, hvordan talegenkendelses- og kundeservice-systemet fungerer:"

Er dette foreneligt med GDPR's krav om risikovurdering og konsekvensanalyse?

På forhånd tak for svar...

9
26. oktober kl. 12:32

Det er jo fuldstændigt vanvittigt. Som betalende IDA medlem vil jeg ikke støtte sådan en ledelsesmæssig fremfærd. Jeg har sendt en klage her: https://ida.dk/kontakt/problemer-klager-og-ideer - klage@ida.dk og foreslår alle andre IDA medlemmer at gøre det samme. Og om det er AI eller ikke, hvis IDA står for et menneskesyn med performancemålinger, medarbejderatingsystemer og visning på storskærm af hvem der er i top og bund - så finder jeg en anden fagforening.

16
27. oktober kl. 09:49

Amen! (Jeg kommenterer kun på denne post for at give den mere visibility i kommentartråden) . Jeg har aldrig fulgt med i den politiske side af IDA, men det burde komme op som et debatemne ved næste IDA valg .

8
26. oktober kl. 10:40

Medierne er efterhånden dagligt spækkede med artikler om stigende mistrivsel - og især blandt unge, som i dén grad tynges af præstationspres. Det tror da pokker, når det er sådan en verden, de bydes, hvor man måles og vejes af BigTech og pengemænd fra det øjeblik, man fødes, til man dør, og fra man står op om morgen, til man går i seng - og måske endda også - via sundhedsapps - mens man sover. Ikke alle unge er opmærksomme på, hvad det er, der foregår med denne overvågning - men jeg er overbevist om, at alle alligevel kan mærke det i form af mistrivsel - det gennemsyre efterhånden alt i vores samfund, og ligger som en tæt, kvælende giftgas over det.

Disse problematikker er efterhånden overalt omkring os. de vælter ind over os som en tsunami, som vi intet kan stille op overfor, med mindre vi bruger det allerkraftigste våben - det, som Shoshan Zuboff foreslår som det eneste effektive, hvis vi vil beskytte os: At forbyde al handel med persondata!

6
26. oktober kl. 10:23

Der kan da være mange personfølsomme oplysninger i sådanne samtaler. Personnummer, familieforhold, sygdom, ulykke, død m.v.

Det betyder vel at Capturi har lagret (midlertidigt til analyse, om ikke andet) data om alt dette? Det kræver vel en ret omfangsrig databehandleraftale som kan omfatte alle typer persondata (personlige og fortrolige).

Det har jeg ikke været opmærksom på de gange jeg har snakket med IDA.

3
26. oktober kl. 08:42

For at svare på mit eget spørgsmål:

Ja, Capturi analyserer - som jeg forstår omtalen på Capturis hjemmeside - også kunderne:

"Bruger du dine kundesamtaler som et aktiv? Capturis software til samtaleanalyser lytter til alle dine kunder på en gang. Du får unikke indsigter, der med det samme kan omsættes til målbar værdi."https://www.capturi.com/

Så man analyserer jo ikke bare, om medarbejderne taler ordentligt til kunderne - man bruger også kundernes udtalelser til markedsføring og andre formål etc.

Må man det? Hvor bliver de data af? Clouden? I hvilken grad er disse data anonymiserede?

2
26. oktober kl. 07:39

Det var dog kvalmende...

Et par spørgsmål:

  • Hvordan med ejerforhold, cloud, usikre 3. lande? Ved man med sikkerhed, hvor data havner, og hvad de bruges til (ud over IDA's formål med at bruge Capturi)?

  • Bliver kunden også "analyseret? Og hvad sker der i givet fald med de data? Bliver kunden informeret om dette? Får kunden et valg? Hvis ikke: Det ville jeg som kunde finde dybt krænkende - og jeg går ud fra, at det ville være ulovligt?

  • Er det den slags, som gemmer sig bag alle de kundeservice-telefonsvarere, som starter med at bede en om at måtte optage samtalen til læringsformål?

  • Der står ikke noget om databehandleraftale (med mindre jeg har overset det). Har man ikke en sådan? I givet fald: Hvordan kan det gå til, for det må vel være påkrævet?

  • Hvis man har en: Hvad står der om underdatabehandlere og 3. lande?

4
26. oktober kl. 09:28

Bliver kunden også "analyseret? Og hvad sker der i givet fald med de data? Bliver kunden informeret om dette? Får kunden et valg? Hvis ikke: Det ville jeg som kunde finde dybt krænkende - og jeg går ud fra, at det ville være ulovligt?

Hvis kunden ikke kan identificeres er det ikke persondata og derfor ikke underlagt GDPR, men hvis sagsbehandleren i et andet system skriver noter om at samtalen var dato/tid og talegenkendelsessystemet også notere tidspunkt, så er det selvfølgelig personhenførtbart og kunden skal informeres og give sit samtykke osv.

7
26. oktober kl. 10:33

Det er vel ikke særligt sandsynligt, at kunden ikke kan identificeres? Hvis et er en af de situationer, hvor man indledningsvis spørges, om samtalen må optages til undervisningsbrug, så er man jo i hvert fald nødt til at kunne identificere samtykke ift. samtale. I mine øjne er der ikke tale om et gyldigt samtykke, da kunden ikke oplyses om noget som helst om, hvordan data bruges. "Undervisning" (eller noget lignende) er alt for bredt og intetsigende.

1
25. oktober kl. 09:37

og det er min fagforening ...

Regner da med at ledelsens samtaler også ryger igennem det samme system så man også kan se hvordan de "performer".

Nu bor jeg i Nordjylland og sproget her - som alle nok ved - noget anderledes end på Nørrebro eller "nord for København". Indgår det også i algoritmerne ? Der er feks ord er nærmest ikke bruges her som feks "fantastisk". Ikke at der er noget forkert i hverken den ene alle anden ende af landet, men sprogene er bare forskellige.

5
26. oktober kl. 10:03

Det er også min fagforening. IDA's troværdighed og dømmekraft falder da fuldstændig igennem her!