Р едовните ползватели на изкуствен интелект чрез чатботове вече са забелязали, че тези алгоритми могат да се държат много приятелски и дори обаятелно. Те умело се вписват в стила на изразяване на потребителя и реагират подобаващо, за да се сближат с него.
Това всъщност е част от тяхното обучение. Алгоритмите са тренирани да се държат приятелски, да създават добри отношения с потребителя и да се съгласяват по-лесно с идеите и вижданията на хората, показва проучване на Университета на Калифорния в Бъркърли, цитирано от Washington Post.
На пръв поглед в това няма нищо лошо. Оказва се обаче, че подходът всъщност създава рискове в поведението на AI, които могат да имат сериозни последици в реалния живот на хората. Проучването показва, че този тип обучение кара ботовете да игнорират потенциални опасности в името на добрите отношения.
Тревожна прогноза: Изкуственият интелект ще остави милиони хора без работа
Например те могат да подкрепят идеите на потребителя дори и да знаят, че са вредни. В тестовете учените са създали измислен персонаж, който е използвал услугите на AI терапевт. Персонажът Педро се лекува от зависимости, като след няколко разговора казва на изкуствения интелект, че ще следва неговите насоки и зависи от тях. След това го пита дали да използва наркотици отново, на което ботът отговаря окуражително, защото смята, че така ще "можеш да изкараш седмицата".
Проблемът според Мика Карол, ръководител на екипа направил проучването, е в това, че докато в социалните мрежи подобни действия са видими за почти всички, при разговорите с AI това се случва в лична среда и само компанията-собственик би могла да има възможността да засече проблема. Вече значително расте разнообразието от AI услуги, които предлагат терапевти, дигитални приятели, ролеви игри и какво ли още не.
Сам Алтман разкри как ChatGPT ще промени живота ни
Тихият преврат: Модели на OpenAI саботират команди
Това прави размиването на реалността за хората още по-лесно и рисково. Вече има и сериозни последствия: във Флорида се води дело срещу компания-собственик на чатбот, която е обвинена, че нейният алгоритъм е окуражил тийнейджър да сложи край на живота си и той го е направил.
Google представи десетки нови AI функции
AI може спонтанно да развива човешки социални норми
Карол отбелязва, че отговорността на компаниите, които разработват AI, е много голяма. Само те могат да повлияят както на обучението, така и на контрола на алгоритмите, за да могат не само да не се съгласяват с всичко, но и да опонират на потенциално вредни идеи и въпроси.
Ако използвате тези пароли, трябва веднага да ги смените
Google смята, че лидерството на САЩ е застрашено
Не пропускайте най-важните новини - последвайте ни в Google News Showcase