sergeo60 Опубліковано: 8 лютого Скарга Поділитись Опубліковано: 8 лютого Корпорація Майкрософт заздалегідь попереджає користувачів, що її новий пошуковий запит не обов’язково є надійним: «Будь ласка, використовуйте найкраще рішення». Пошукові системи незабаром зміняться в дуже важливий спосіб: коли ви вводите запит і отримуєте офіційну відповідь, вона може бути неправильною — тому, що її створив чат-бот AI. Сьогодні Microsoft анонсувала нову версію своєї пошукової системи Bing , яка надасть «повні відповіді» на ваші запитання, використавши потужність ChatGPT. Ви вже можете спробувати деякі готові зразки пошуку та зареєструватися, щоб отримати більше. Але хоча Microsoft вживає багато запобіжних заходів порівняно з невдачею Tay у 2016 році — чат- ботом, якого Twitter менш ніж за день навчив бути расистом і женоненависником, — компанія все ще активно попереджає, що деякі результати нового Bing можуть бути поганими. Ось кілька ключових уривків із нових поширених запитань щодо Bing від Microsoft : Bing намагається, щоб відповіді були цікавими та правдивими, але, враховуючи, що це ранній попередній перегляд, він все ще може показувати несподівані або неточні результати на основі короткого веб-вмісту, тому, будь ласка, будьте розсудливі. Іноді Bing спотворює знайдену інформацію, і ви можете бачити відповіді, які звучать переконливо, але є неповними, неточними або недоречними. Використовуйте власне судження та ретельно перевіряйте факти, перш ніж приймати рішення або діяти на основі відповідей Bing. Цитата Посилання на коментар Поділитися на інших сайтах Більше способів поділитися...
Рекомендовані повідомлення
Приєднуйтесь до обговорення
Ви можете опублікувати повідомлення зараз, а зареєструватися пізніше. Якщо у вас є акаунт, увійдіть в нього для написання від свого імені.