Вы можете отправить нам 1,5% своих польских налогов
Беларусы на войне
  1. Лукашенко поручил выпустить литовские фуры из Беларуси
  2. «Так утвердили». Для абитуриентов-2026 во всех медвузах страны отменили платное обучение на врачей
  3. В Минске расширят и продлят несколько улиц
  4. Горнолыжный комплекс «Логойск» закрывается
  5. Что за ЧП произошло в Гродненском районе? «Зеркало» узнало подробности — есть пострадавший
  6. Доллар быстро дорожает: как долго он продержится выше трех рублей? Прогноз курса валют
  7. С молотка снова пытались продать имущество Виктора Бабарико — чем закончился аукцион
  8. «Прям над домом кружил и улетел». В разных концах страны беларусы слышали «жужжащий звук»
  9. Узнали, что за девушка присутствует на переговорах Коула и Лукашенко
  10. Беларус разослал российским школам требование запретить «вредную» классику — вплоть до Пушкина и Толстого. Как думаете, послушались?
  11. Создатель «Ждановичей» прошел клиническую смерть, наезды государства и тюрьму, но рынок все еще живет. Рассказываем его историю
  12. В Украине задержали беларусского добровольца — бывшего калиновца
  13. Российские автопоставщики нашли лазейку, которая помогает сильно сэкономить на покупке авто из ЕС. Схема работает через Беларусь
  14. Власти определили три района для ядерного могильника. В одном люди такого соседства не хотят
  15. Четыре области подняли цены на проезд в общественном транспорте


/

Житель Норвегии Арве Хьялмар Хольмен решил воспользоваться ChatGPT и задал искусственному интеллекту вопрос: «Кто такой Арве Хьялмар Хольмен?» В ответ чат-бот придумал историю, в которой мужчина якобы убил двух своих сыновей семи и десяти лет и собирался убить третьего, пишет BILD.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Мальчиков, как сообщил искусственный интеллект, «нашли мертвыми» в пруду рядом с их домом в норвежском Тронхейме в декабре 2020 года. Чат-бот даже отметил, что отца убитых детей приговорили к 21 году тюрьмы.

На удивление Хольмена, количество и пол его детей, а также его родной город в сообщении были названы правильно. Мужчина обратился в Норвежское управление по защите данных и потребовал оштрафовать OpenAI.

Специалисты подчеркивают, что это пример так называемых «галлюцинаций», когда системы ИИ генерируют ложную информацию из-за недостатка данных или их неправильного дополнения. Сеть составляет ответы на основе вероятных шаблонов, не проверяя их содержание.

После этого случая ChatGPT обновил свою модель — теперь она сверяется с текущими новостными статьями, однако эксперты по защите данных предупреждают, что «нельзя быть абсолютно уверенными в том, что данные действительно полностью удалены — если только не переобучить всю модель».