Гугл предупредил сотрудников о некоторой неадекватности чат-ботов

Новости

Гугл предупредил сотрудников о некоторой неадекватности чат-ботов

Гугл обеспокоен использованием чат-ботов в дочерней Alphabet. Под подозрением даже собственный Bard. Впрочем, остальному миру ИИ активно втюхивается.

Гугл посоветовал сотрудникам не вводить собственные конфиденциальные данные в чат-боты. Политика объясняется безопасностью, пишет xrust. Ведь тестировщики ИИ выявили удивительную вещь – плоды обучения иногда используются Bard и ChatGPT. Другими словами, настраивая чат-бот путем использования собственных жизненных фактов, вы можете сделать их достоянием «вселенной».

Однако, самое неприятное – предупреждение относительно бездумного применения программ, генерируемых чат-ботами. Их следует тщательно анализировать. Они, конечно, помогают программистам, но требуют особого внимания. К сожалению Гугл, предупреждая сотрудников, не допустил утечки фактов в интернет.

Настораживая персонал, Google стремится навредит бизнесу программным обеспечением. Ведь скомпрометировав себя, корпорация потеряет многомиллиардные инвестиции, которые уйдут OpenAI и Microsoft.

Заметим, что такая настороженность Гугла отражает общую тенденцию – корпорации уже начали предупреждать контингент, работающий с ИИ. Например, Samsung, Amazon, Deutsche_Bank ограничили перечень вопросов, решаемых искусственным интеллектом.

Другие новости. Украина наступает – здесь. Германия боится лишиться российского газа – тут. Самый большой камень в почках – там.

Гугл предупредил сотрудников о некоторой неадекватности чат-ботов

Оригинал статьи размещен в Новости Xrust

Mail102.ru — Интересные статьи о жизни, о дизайне, о помощи, новости дня.

Общение, обучение, обмен опытом, комментарии.

Самые свежие новости из культурной, общественной и политической жизни.

Новые архитектурные проекты, премьерные показы кино, спортивная жизнь, здоровье, красота, мода.

Будьте в центре всех значимых событий.
Оцените статью
Mail102.ru
Добавить комментарий