Obavy z negatívnych dopadov umelej inteligencie na vzťahy so zákazníkmi nútia firmy rozmýšľať, ako vytvárať autonómne inteligentné systémy, ktoré budú slušné a zodpovedné. Približne polovica firiem, ktoré využívajú umelú inteligenciu, sú s ňou spokojné. Väčšina manažérov sa však zároveň obáva možných negatívnych dopadov autonómnych „strojov“ na vzťahy so zákazníkmi.
Podľa medzinárodného prieskumu Forbes Insight pre SAS, Accenture Applied Intelligence a Intel má obavu z toho, že umelá inteligencia vystupujúca pod značkou firmy sa bude správať a konať nemorálne, neférovo, arogantne, alebo jej skrátka zákazníci nebudú dôverovať až 60 % z firiem, ktoré už umelú inteligenciu používajú, alebo ju plánujú používať. Vzhľadom na to, že umelé inteligencie pri doterajších experimentoch a testoch už viackrát prejavili rasistické sklony, alebo mali sexistické či homofóbne narážky, sú takéto obavy opodstatnené. Preto ak sa má umelá inteligencia stať tvárou značiek a reprezentovať ich obdobne, ako dnes obchodníci alebo pracovníci zákazníckych služieb, budú musieť firmy zabezpečiť, aby sa „stroje“ správali slušne a zodpovedne. „Všetko nasvedčuje tomu, že firmy si budú musieť umelú inteligenciu vychovávať, obdobne ako to robia rodičia so svojimi deťmi. Inteligentné systémy, ak sú schopné učiť sa a konať samostatne, musia mať logicky v sebe vštepené princípy morálky a isté spoločenské normy", komentoval výsledky prieskumu Richard Kraus.
Vlani v decembri expertná skupina Európskej únie predstavila prvý návrh etických noriem pre vývoj a využitie umelej inteligencie. Finálnu verziu odprezentujú odborníci tento rok v marci. Viaceré firmy však v tomto smere konajú už dnes. Takmer tri štvrtiny podnikov, ktoré v súčasnosti umelú inteligenciu úspešne využívajú, na ňu starostlivo dohliadajú a najmenej raz týždenne vyhodnocujú jej výsledky. Väčšina spoločností tiež robí pre svojich technologických odborníkov školenia v etike a vyše polovica (63 %) zriadila aj interné etické komisie, ktoré pravidelne vyhodnocujú, ako sa u nich umelá inteligencia využíva.
Podľa medzinárodného prieskumu Forbes Insight pre SAS, Accenture Applied Intelligence a Intel má obavu z toho, že umelá inteligencia vystupujúca pod značkou firmy sa bude správať a konať nemorálne, neférovo, arogantne, alebo jej skrátka zákazníci nebudú dôverovať až 60 % z firiem, ktoré už umelú inteligenciu používajú, alebo ju plánujú používať. Vzhľadom na to, že umelé inteligencie pri doterajších experimentoch a testoch už viackrát prejavili rasistické sklony, alebo mali sexistické či homofóbne narážky, sú takéto obavy opodstatnené. Preto ak sa má umelá inteligencia stať tvárou značiek a reprezentovať ich obdobne, ako dnes obchodníci alebo pracovníci zákazníckych služieb, budú musieť firmy zabezpečiť, aby sa „stroje“ správali slušne a zodpovedne. „Všetko nasvedčuje tomu, že firmy si budú musieť umelú inteligenciu vychovávať, obdobne ako to robia rodičia so svojimi deťmi. Inteligentné systémy, ak sú schopné učiť sa a konať samostatne, musia mať logicky v sebe vštepené princípy morálky a isté spoločenské normy", komentoval výsledky prieskumu Richard Kraus.
Vlani v decembri expertná skupina Európskej únie predstavila prvý návrh etických noriem pre vývoj a využitie umelej inteligencie. Finálnu verziu odprezentujú odborníci tento rok v marci. Viaceré firmy však v tomto smere konajú už dnes. Takmer tri štvrtiny podnikov, ktoré v súčasnosti umelú inteligenciu úspešne využívajú, na ňu starostlivo dohliadajú a najmenej raz týždenne vyhodnocujú jej výsledky. Väčšina spoločností tiež robí pre svojich technologických odborníkov školenia v etike a vyše polovica (63 %) zriadila aj interné etické komisie, ktoré pravidelne vyhodnocujú, ako sa u nich umelá inteligencia využíva.