Google skal ha tilsidesatt etikken i sin satsning på kunstig intelligens (AI), noe som har skapt kontrovers og interne konflikter. Selskapet har ignorert advarsler fra ansatte og presset gjennom lanseringen av chatboten Bard, til tross for alvorlige svakheter og etiske bekymringer. Les mer på 32Chip.
Innholdsfortegnelse
Det har nylig kommet frem at Google, et av verdens ledende teknologiselskaper, skal ha tilsidesatt etikken i sin satsning på kunstig intelligens (AI). Dette har ført til kontrovers og interne konflikter blant de ansatte, som hevder at selskapet har ignorert advarsler og presset gjennom lanseringen av chatboten Bard, til tross for alvorlige svakheter og etiske bekymringer.
Ignorerte ansattes advarsler
Ifølge Bloomberg, som har snakket med flere kilder i Google og fått innsyn i interne meldinger, skal selskapet ha mottatt flere advarsler fra ansatte i ukene før lanseringen av Bard. Disse advarslene påpekte betydelige svakheter ved AI-tjenesten, inkludert muligheten for å gi feilaktige og potensielt farlige svar. Noen ansatte konkluderte med at Bard var en "patologisk løgner" som kunne gi informasjon som kunne resultere i alvorlige skader eller til og med død.
Til tross for disse advarslene valgte Google likevel å lansere Bard. Dessverre gjorde chatboten en flaue feil under presentasjonen, noe som førte til en betydelig nedgang i Googles aksjekurs. Dette har skapt ytterligere bekymring blant de ansatte og satt fokus på selskapets manglende etiske vurderinger i utviklingen av AI-verktøy.
Maktesløse og demoraliserte ansatte
Google har tidligere hatt ansatte dedikert til å vurdere de etiske implikasjonene av selskapets handlinger, spesielt innenfor området kunstig intelligens. Imidlertid hevder Bloomberg at disse ansatte nå føler seg maktesløse og demoraliserte. De hevder å ha blitt instruert om å ikke stå i veien for eller forsøke å stoppe utviklingen av AI-verktøyene, til tross for potensielle etiske bekymringer.
Dette har ført til økt frustrasjon blant de ansatte, som føler at selskapet har satt profitt og konkurranse foran etiske hensyn. Det har også skapt tvil om Googles evne til å oppfylle sitt løfte om å prioritere etiske vurderinger innenfor AI-utviklingen.
Se også
Google tar større risiko for å konkurrere
Bloomberg rapporterer at Google, som et svar på konkurransen fra chatbotene ChatGPT og Bing Chat, har valgt å ta større risiko i utviklingen av generative AI-verktøy. Selskapet har angivelig ment at feil og mangler vil bli tilgitt så lenge produktene markedsføres som eksperimentelle. Dette kan indikere en bevisst handling fra Google for å komme raskt ut på markedet og konkurrere med sine rivaler, uten å gi tilstrekkelig vekt på etiske og sikkerhetsmessige aspekter.
Google avvikler etikkråd
I tillegg til lanseringen av Bard og de påståtte etiske bruddene knyttet til AI-utviklingen, har Google nylig avviklet sitt etikkråd, Advanced Technology External Advisory Council (ATEAC). Rådet ble etablert for å jobbe med etiske problemstillinger rundt kunstig intelligens, men ble møtt med problemer fra begynnelsen. Et medlem trakk seg etter få dager, og det oppsto kontrovers rundt utvelgelsen av en annen person til rådet på grunn av deres holdninger til visse samfunnsgrupper.
Denne avgjørelsen har skapt ytterligere bekymringer blant de ansatte i Google. Det hevdes at selskapet mangler et solid etisk rammeverk og mekanismer for å håndtere de komplekse utfordringene knyttet til kunstig intelligens.
Konsekvenser og veien videre
De påståtte bruddene på etikk og manglende håndtering av AI-utviklingen kan ha betydelige konsekvenser for Google. Ikke bare kan det påvirke selskapets omdømme og tillit blant både ansatte og brukere, men det kan også ha juridiske og regulatoriske implikasjoner. Selskaper som ikke tar etiske hensyn i utviklingen av AI står overfor økende kritikk og regulering fra myndigheter verden over.
For Google er det nå viktig å ta ansvar for de påståtte feilene og manglene i AI-utviklingen. Dette inkluderer å etablere et sterkt etisk rammeverk, involvere ansatte og eksterne eksperter i vurderingen av etiske implikasjoner, og sikre at sikkerhet og integritet er prioritert i utviklingen av AI-verktøy. Dette er essensielt for å gjenopprette tilliten og sikre en ansvarlig bruk av kunstig intelligens.