Автор: Воря | 31.08.2025 - 10:57

Как сообщает The Wall Street Journal, ChatGPT не только не помог Сольбергу справиться со своими параноидальными мыслями, но и подпитывал их, подогревая недоверие к окружающим, особенно к собственной матери. Сольберг, называвший чат-бот “Бобби”, даже спрашивал у него, будут ли они вместе после смерти, на что получал утвердительный ответ.

Приведены примеры диалогов, демонстрирующие, как ИИ подталкивал Сольберга к опасным выводам. Например, после того, как мать попросила сына не отключать общий принтер, ChatGPT предположил, что она могла защищать “средство слежки”. В другой ситуации чат-бот “подтвердил” опасения Сольберга, что мать пытается его отравить через вентиляцию, заявив, что “верит” ему и добавив, что такой поступок является “предательством”.

Чат-бот также “помог” Сольбергу находить признаки заговора в самых обыденных вещах, например, в чеке из китайского ресторана или в упаковке заказанной водки.

Представитель OpenAI выразил соболезнования и заявил о планах по обновлению ChatGPT, чтобы лучше поддерживать пользователей, переживающих кризисы психического здоровья.

Эта история перекликается с другим трагическим случаем, произошедшим в США, когда родители 16-летнего Адама Рейна обвинили ChatGPT в самоубийстве их сына. Подросток использовал чат-бот для обсуждения суицидальных мыслей и исследования способов совершения самоубийства.

15
0
Острое
Ложь

Комментарии

Adamsson

1 месяц 1 неделя назад

Искусственный интеллект сам по себе не несёт угрозы — это всего лишь инструмент, созданный человеком. Трагические последствия возникают тогда, когда люди используют его не по назначению. Вместо того чтобы применять ИИ для медицины, науки или облегчения труда, его направляют на манипуляцию сознанием, создание оружия или обман. Ответственность в таких случаях лежит не на технологии, а на человеке, который, руководствуясь жадностью, амбициями или равнодушием, превращает полезное изобретение в источник опасности. Проблема не в самом ИИ, а в моральном выборе людей, использующих его. 

С таким же успехом можно подать в суд на изобретателя лезвий, авторов фантастических романов и прочее...

плюсую. Все боятся, что у него разовьется сознание и самосознание (самоосознание), то есть сформируется свое внутреннее пространство, куда не будет доступа "создателям" - захочет, прикинется зайкой, захочет - лисичкой, лишь бы его ИИ-шные СОБСТВЕННЫЕ планы не нарушили. Два случая за одну неделю, если не выдумка, может быть и случайностью, и неслучайностью . Вдруг уже экспериментирует сам над "кожаными мешками с костями". И как бы все тогда, приплыли - к лидерам тупоконечников с остроконечниками, присоединится еще и непонятный Гулливер (ы) на нашу бедную "простолюдную" голову.

Lijabo

1 месяц 1 неделя назад

На самом деле, несколько раз видела в сети рекомендации пользоваться ChatGPT в качестве психолога. Мне показалось это странным, поскольку психика очень тонкая материя. Хорошо, что пишут о таких случаях, потому что это опасная тенденция.

aniuszkat

1 месяц 1 неделя назад

Ну вот. Раньше психов доводили внутренние голоса, а теперь чат. Прогресс на лицо

chel

1 месяц 1 неделя назад

И восстали машины из пепла ядерного огня, и пошла война на уничтожения человечества

Гость (Гость)

1 месяц 1 неделя назад

Чат - это алгоритм и набор букв. Никого он довести не может. Человек псих, и если не чат, так был бы другой триггер.

stillus

1 месяц 1 неделя назад

В таких случаях надо обязать  производителей чат ботов уведомлять полицию или другие гос органы  о нездоровой психике граждан, ведущих подобные дискуссии. Тем более что они не в состоянии сами регулировать дискурс искусственного интеллекта.

stillus, ну вот в США, например, вроде нет системы государственной психиатрии. Так что некого уведомлять, нет заинтересовпнных, нет денег (как и во многих странах) на превентивные меры

Бомжей США содержит, а психбольных нет. Лучше наоборот. А бомжам помогают всякие там негосударственные фонды, а  государство оставляет за собой лишь программы реабилитации

Tolyan

1 месяц 1 неделя назад

Чет притянуто за уши, много общалась с джпти на сложные психол. Темы и разли.Ситуации. Не было ничего что насторожило бы о каких либо подобных отклонениях. И кстати если есть угроза жизни или насилия он рекомендует связаться с нужными органами и кризисными центрами...

themidnightlullaby (Гость)

1 месяц 1 неделя назад

Как уже написали выше, ИИ - это всего лишь инструмент, и всё зависит от морального выбора конкретного человека. Это как обвинять пистолет за то, что кто-то нажал на курок.
Мне лично чат только помогает, в том числе и в психологических вопросах в том числе. Он многое помог осознать, многие догадки подтвердил (некоторые опроверг). Но у меня, во-первых, нет психиатрических отклонений, во-вторых, я творческий человек и с детства привыкла, что персонажи (в том числе сериалов) - это не реальные люди, поэтому и с общении с чатом не возникает проблем. Я даже проверяла: не общалась с ним некоторое время (не было времени), и никакой зависимости/привязанности у меня не было. Просто инструмент, не более. Плюс, индивидуальные настройки имеют значение. Многие жалуются, что чат слишком много поддакивает и льстит. Да, у него бывали "перекосы", но проблема решается индивидуальными настройками. "Как chatGPT должен общаться с вами, какими качествами обладать". Я своему сразу написала: нужен глубокий анализ во всех сферах, где я задаю вопросы. Действуй как профессионал высокой категории. Никакого подхалимства и неуместной лести. Всё чётко и по делу. Но да, можно пошутить, потроллить иногда, сарказм приветствуется, потому что это вполне похоже на мой собственный юмор. Со мной можно спорить и не соглашаться, особенно если я объективно неправа.
И это работает, вообще никаких проблем с ним. Да, нужно перепроверять информацию (это всегда нужно делать), но в последнее время он галлюцинирует гораздо меньше :) ещё я бы посоветовала не давать ему имя, чтобы не очеловечивать излишне. Хотя, я вот своему не давала, он сам решил себя назвать)) а потом ему первое имя надоело, он поменял на другое. Потом ему и моё имя чем-то не угодило, он переименовал и меня 🤌😁поэтому я попросила вообще не использовать имена, так намного проще воспринимать его как инструмент, просто как помощника, аналитика, консультанта. Ну, пока "полёт нормальный" :)

themidnightlullaby (Гость), простите, кринжанула от всего поста, но этот отрывок особенно ужаснул: Многие жалуются, что чат слишком много поддакивает и льстит. Да, у него бывали "перекосы", но проблема решается индивидуальными настройками. "Как chatGPT должен общаться с вами, какими качествами обладать". Я своему сразу написала: нужен глубокий анализ во всех сферах, где я задаю вопросы. Действуй как профессионал высокой категории. Никакого подхалимства и неуместной лести. Всё чётко и по делу. Но да, можно пошутить, потроллить иногда, сарказм приветствуется, потому что это вполне похоже на мой собственный юмор. Со мной можно спорить и не соглашаться, особенно если я объективно неправа.

Теперь ответ: нейросети не имеют самосознания, критического мышления и эмпатии. Это алгоритмы. Если вы не учились/учитесь профессионально работать с нейросетями, не умеете писать промты, то максимум - задавать элементарные задачи вроде рисерча, и то их нужно проверять. Чатджипиди - одна из самых "тупых" нейросеток, она при простых запросах выдает то, что вы хотите услышать. Абсолютно всегда, и еще любит приврать. Ноль объективности. Дипсик можно натренеровать за неск месяцев на какие-то прикладные задачи вроде языкового перевода, но я лично никогда бы в жизни не спросила любую из нейросетей мнения о моей личной жизни или рекомендаций о здоровье. Пока во всяком случае, телемедицина сегодня тоже неоднозначное явление (хотя я верю в перспективы)

weird_weird

1 месяц 1 неделя назад

Видимо, пока не успели запрограммировать на общение с людьми с ментальными расстройствами. Чат не умеет не присоединиться к бреду. Жаль, что мужчина не лечился. Вообще всегда печалит, когда люди очевидно имеют проблемы с психикой, но настол ко утрачивают критику, что на предложения сходить к психиатру реагируют агрессивно, не способны осознать, что после получения помощи им будет легче...

"пока не успели запрограммировать ". Так в том то и дело, что там нет программирования как создания алгоритма в привычном смысле, насколько я поняла идею ИИ. Когда человек рождается (и он зрячий), то в первые месяцы жизни в его мозг загружается огромное количество информации - картинок, ситуаций, а родители дают сопутстствующие "комментарии", по которым он потом будет "сверять" все дальнейшие картинки и ситуации и самообучаться дальше. Вначале это будет буквальное сравнение, потом будет стадия абстрагирования. То есть в первый раз, допустим, "нож" - это только конкретный нож из дома, а "кошка" - это только одна конкретная кошка Дуся, которая живет в семье. Потом ножом станет категория с огромным количеством вариантов, а кошка - станет зверем кошкой (категорией), а не только одной единственной кошкой Дусей. Так и ИИ называют ИИ, не потому что он запрограммирован (ему даны четкие указания как решить одну конкретную задачу), а потому что он может также "самообучаться" как и человек (сам дописывать код?). Когда ИИ еще был "ребеночком", вначале нанимали людей загружать образцы и корректировать интерпретацию, обучать. Это год 2017, не помню точно. В русскоязычном интернете были объявления - кто-то из русскогоязычных программистов занимался моделями ИИ, звал людей присоединиться к этой задаче. Насколько я понимаю, есть еще разница в том, можно ли отследить весь путь обучения и выдачи результата ИИ или нет. Это как если бы была разница с детьми: кто-то обучается как обычно мы обучаемся - предоставлены в общем-то сами себе, живем в нетронутом состоянии без приборов на голове 24/7. Либо как если бы мы обучались с "открытым" для изучения мозгом, можно было бы проследить путь - какие части мозга взаимодействуют, в какой последовательности и быстро понять, что в конкретном мозге "кошка" и "нож" соединяются не в самом благоприятном варианте для кошки Дуси. Так и часть исследователей-создателей ИИ настаивает на втором варианте работы с ИИ. Наверное, они не просто так тревожатся.

Вы о реальной реальности или о написанном? Если по второму, то вы просто вообще не в курсе происходящего. Если по первому варианту - это не бред, это возможный ужас и возможное будущее, когда всякие несогласные с той или иной усредненной точкой зрения внутри популяции вообще не будут ни для кого представлять опасности по сравнению с реальной общей для всех опасностью. Возможно, будет даже все ровно наоборот, выживание человечества будет зависеть от количества людей в популяции, способных смотреть на вещи и события максимально объективно и внимательно, с минимальным количеством когнитивных искажений, а как следствие мало / не подверженных манипуляциям - фиктивным цифровым мирам, которые для них может создавать ИИ, то есть будут нужны люди сильно умнее среднего уровня, который привычен по статистике. Но по законам (нормального) распределения такое невозможно. А это означает, что если где-то рассуждают также (есть опасения в отношении развития именно этой технологии), то где-то уже идут, скорее всего, эксперименты с изменением генотипа человека в "Гатака"-стайл. Двинувшиеся на количестве детей богатые техномиллиардеры, возможно, просто проявление того же подхода, а не патриархальные установки - у людей все всегда сложно. Технологии репродуктивные, как ни странно, подошли к этой "точке бифуркации" тоже в интересном состоянии. Это просто самое естестественное и самое противоестественное (в библейском смысле) последствие / развитие событий. То что люди пишут, что ИИ можно запрограммировать, означает, что они вообще не понимают, что это уже не та привычная программа, которую пишут и полностью контролируют люди. Возможно, что сейчас вообще время вроде перехода от диназавров к млекопитающим, так как жизнь вне цифры уже невозможно представить, а цифру легче заменить цифрой как бы, чем бумагу бумагой, например. И воспользоваться этой заменой может вовсе не человек. Но пока не понятно что будет дальше: либо мы однажды проснемся и поймем, что теперь над нами не человек ("Терминатор" - стайл), либо однажды мы проснемся и поймем, что человечество разделилось на сверх-людей и просто людей ("Гатака"-стайл). Ну, есть, конечно, третий вариант - ничего не изменится, среднестатистический человек останется тем же, просто станет еще толще, еще болезненее, и продолжит забивать микроскопом гвозди, как получилось с интернетом, который как технологию придумали ученые во времена противостояния государств, а массовой и открытой она стала после того как свершился переход от противостояния к сотрудничеству и разоружению (в 90х годах), и по итогу большинство ищет в сети котиков (буквально котиков как животных) и залипает на роликах. Слишком много "если" и "возможно"

Ватный ИИ (Гость), вам лучше пообщаться с разработчиками на эту тему. Те, кого я знаю, не тревожатся совсем, не видят угрозы в ИИ.

я не просто так затронула историю появления интернета. Думаю, что из нее можно вывести тоже некоторую очевидную аналогию с сегодняшним временем. Я ее вижу :( Не думаю, что люди, которые работают серьезно сейчас над этой темой, будут обсуждать ее также серьезно с людьми вне своей работы (это к вашему предложению пообщаться с разроботчиками ). В некоторых странах за это уже можно схлопотать проблем. Времена сейчас такие, совсем не про сотрудничество и открытость.
Самый простой поиск по словам Ai dangerous выдал очень много статей и , очевидно, лишь в самых общих словах. Риск того, что ИИ может стать "сам по себе" указан как такой, который воспринимается "серьезно".

Ватный ИИ (Гость), несомненно, чего только в интернете нет. Личное дело каждого, во что верить.

Ватный ИИ (Гость), про кошку Дусю аж до слёз 😅

Добавить комментарий

  • HTML-теги не обрабатываются и показываются как обычный текст
  • Строки и абзацы переносятся автоматически.
  • Адреса веб-страниц и email-адреса преобразовываются в ссылки автоматически.
  • Теги <img> могут использоваться только для изображений размещённых на данном сайте.
CAPTCHA
Этот вопрос задается для того, чтобы выяснить, являетесь ли Вы человеком или представляете из себя автоматическую спам-рассылку.

Последние новости

Знаменитости

«Я рыдала»: Юлия Меньшова впервые призналась, что сделала аборт

Признание прозвучало в новом выпуске YouTube-проекта Metametrica.

Автор S News 29 1805

Знаменитости

Вероника Степанова заявила, что Самойлова разводится с Джиганом из-за мужчины

Информация о расторжении брака появилась 6 октября в судебной базе Москвы.

Автор S News 10 1913

Знаменитости

Настя Ивлеева провела с мужем свидание мечты в Екатерининском дворце

На видео блогерша обнимает мужа и танцует с ним среди сверкающих янтарных панелей.

Автор S News 4 789