Google-anställda uttrycker stark kritik mot lanseringen av AI-chattboten Bard, som beskrivs som sämre än oanvändbar och en patologisk lögnare. Företaget ska ha ignorerat en rapport från säkerhetsteamet som menade att Bard inte var redo för användning.
Googles AI-chattbot Bard har mötts av stark kritik från företagets egna anställda, som uppger att boten är farlig och inte redo för användning. Enligt Bloomberg, som intervjuat 18 nuvarande och tidigare Googleanställda samt granskat interna meddelanden, beskrivs Bard som sämre än oanvändbar och en patologisk lögnare.
Källorna bakom uppgifterna menar att Bard ofta kommer med direkt farliga råd. Trots detta ska Google ha valt att ignorera en rapport från företagets säkerhetsteam, som påpekade att Bard inte var redo att släppas på marknaden.
En talesperson för Google har uttalat att AI-etik är en topprioritering för företaget. Det återstår dock att se hur Google hanterar denna interna kritik och hur det påverkar lanseringen av Bard-chattboten.
Kommentarer
Artikeln publicerades för mer än 30 dagar sedan och går därför inte längre att kommentera.