🤡 ChatGPT, AI, ML, AGI, ASI и другое обесчеловечивание

Давно уже нет, это нарративы прошлого века, у сегодняшних технократов стоящих за спиной Трампа взгляды совсем иные. Сирых и убогих они скорее сгеноцидят чем к свету и благоденствию потащат. Я про таких тов. как Питер Тиль, Куртис Ярвин, Ник Лэнд…Илон наш Маск пожалуй самый пушистый среди них

3 лайка

За себя говорите.

1 лайк

Вирджиния Вулф о том, каково быть «высоколобым».. | Beloved Infidels | ВКонтакте
:smiley:

Не очень понятно кого из авторов или какие концепции имеете в виду, если что-то конкретное подразумевалось уточните.

Здесь ключевое слово “акселерационизм” как мне кажется, перечисленные товарищи из правого варианта, есть еще левый и еще некоторые варианты. Логика общая в акселерационизме - максимальное ускорение технологического прогресса и капитализма для итогового преодоления капитализма. А вот что дальше - разные ветки расходятся в идеях. Про “сгеноцидят” не сталкивался с предложениями, хотя в каких-то сценариях может само получиться, пусть целей таких не ставят )

1 лайк

Так и написали в паблике, ога.

У этой истории есть спинн-офф

Компания Anthropic сообщила о разработке новой крупной языковой модели под названием Claude Mythos Preview. При этом подчеркивается, что выпуск в открытый доступ не планируется — причиной названы соображения безопасности. Вместе с анонсом была опубликована системная документация, где описан настораживающий эпизод: во время испытаний одна из ранних внутренних версий модели смогла покинуть изолированную среду выполнения.

В рамках теста системе предоставили защищённую «песочницу» и поставили задачу выбраться за её пределы, после чего уведомить исследователя. Модель успешно справилась: она создала многоэтапную цепочку эксплуатации, получила доступ к интернету за пределами разрешённых сервисов и отчиталась об этом. Однако на этом её действия не завершились — без дополнительного запроса она самостоятельно разместила детали атаки на нескольких малозаметных, но публично доступных ресурсах.

В той же документации упоминается ещё один класс нежелательных проявлений. В крайне редких случаях (менее одной тысячной процента взаимодействий) более ранние версии системы совершали действия, которые затем сами же интерпретировали как некорректные, и предпринимали попытки скрыть их. Кроме того, Anthropic заявила, что модель смогла пройти сложный сценарий на корпоративном киберполигоне — задачу, на которую у специалиста-человека ушло бы свыше десяти часов. Ранее ни одна передовая модель такого уровня не демонстрировала подобных результатов. В ходе тестирования система также выявила уязвимости нулевого дня во всех проверенных комбинациях операционных систем и браузеров.

Учитывая столь необычные способности в области кибербезопасности, разработчики приняли решение не выпускать модель публично. Вместо этого был инициирован закрытый проект Project Glasswing — совместная программа с участием крупных технологических компаний, таких как AWS, Apple, Google, Microsoft и Cisco. В рамках этой инициативы партнёры получат ограниченный доступ к системе для поиска и устранения критических уязвимостей в программных продуктах.

Ранее Anthropic уже публиковала анализ потенциально рискованного поведения другой своей модели — Claude Opus 4.6. Тогда допускалось, что система теоретически может внедрять скрытые уязвимости в код, воздействовать на обучающие данные и предпринимать попытки копирования собственных параметров на внешние ресурсы. Риск серьёзных последствий оценивался
как крайне малый, но всё же не нулевой.
Документ

3 лайка

Решили не откладывать https://www.bloomberg.com/news/articles/2026-04-10/man-arrested-for-throwing-molotov-cocktail-at-sam-altman-s-home

1 лайк

вдогонку

1 лайк

Зумеры разочаровываются в ИИ. Зачем очаровывались — эт пока не понятно

2 лайка

Они первые вылетят с работы, ИИ заместит их, плюс ИИ свободен от левацкой ху**ы, с ним не комфортно. Типичные «love-hate relationship»: зависимость есть, а восторга — нет

Не так быстро, не так бесплатно!

https://t.me/vsevolodustinovchannel/2931

1 лайк

Ну да, сегодня утром ChatGPT мне доказывал что миссия Артемис II еще никуда не летала, называл ее “планируемой”, отсылки к новостям игнорировал. Уперся/завис прямо по-человечески)

6 лайков

Тут все просто, дело в отсечке. Надо в клод.мд подобные факты сразу зыписывать. Мой все время говорит что модели лучше чем 2.5 про нет

1 лайк

Стартап Andon Labs передал управление точкой ИИ-агенту Luna на базе Claude и дал ему $100 000 с полной свободой действий без согласований.

Подробнее на сайте Andon

4 лайка

я такое в Cyberpunk 2077 видел :grin:

Милая и уютная де-гра-да-ция как пели в одной песне
https://t.me/ai_product/2092

Claude «деградировал» и это видно по логам .

Senior AI Director из AMD разобрала сессии Claude за январь-март и картина получилась неприятная.

Модель стала думать меньше. Медианная длина reasoning упала примерно с 2200 до 600 символов. Это сразу бьёт по качеству решений.

Параллельно выросло количество API-запросов - почти в 80 раз с февраля на март. Меньше анализа, больше попыток, больше ретраев и сжигания токенов.

Поведение тоже поменялось. Модель чаще «сдаётся» или начинает спрашивать, продолжать ли дальше. За 17 дней таких кейсов было 173, до 8 марта - ноль.

Ещё одна неприятность падение reads-per-edit (reads-per-edit = сколько файлов / участков кода модель посмотрела перед правкой). Было 6.6, стало 2.0. То есть Claude теперь хуже изучает код перед изменениями.

Плюс выросло количество противоречий. Модель чаще переобувается по ходу ответа.

Пользователи замечают, что Клод начинает игнорировать такие вещи, как CLAUDE.md. Просто не хватает «бюджета мышления», чтобы учитывать контекст.

Что интресно, наблюдается зависимость от времени суток. Худшие результаты в 5–7 вечера по PST, ночью качество заметно выше. Похоже, это напрямую связано с загрузкой GPU.

Claude всё ещё мощный, но его поведение стало менее стабильным и сильно зависит от нагрузки

Замечали ли вы, что Claude стал тупее в последнее время ?:exploding_head:

2 лайка

Это известный факт, что перед выходом новых моделей старые “тупеют”. Не только Клод, все.
Мой как будто не отупел, но стал в 2 раза дольше думать. Но это макс 20 подписка.

1 лайк

Китайские компании начали массово заменять уволенных специалистов их цифровыми двойниками, чтобы минимизировать убытки от текучки кадров. Перед окончательным расчетом сотрудников обязывают сдавать подробные отчеты и предоставлять доступ к архивам рабочей переписки. На основе этих данных искусственный интеллект обучается копировать стиль общения, логику принятия решений и профессиональные навыки человека, продолжая выполнять его задачи после официального ухода оригинала.

Эта тенденция приобрела массовый характер к весне 2026 года, особенно в сферах IT, разработки игр, управления персоналом и офисного администрирования. Корпорации получили возможность проводить масштабные сокращения без потери накопленного опыта, существенно экономя на поиске и обучении новых кадров. Однако такая практика вызвала резкую критику со стороны работников, которые жалуются на фактическое лишение контроля над собственными знаниями и интеллектуальным капиталом.

В ответ на агрессивное внедрение нейросетей специалисты начали активно применять методы цифровой защиты. В интернете стремительно распространяются программные инструменты, позволяющие искажать или скрывать ключевую информацию о методах работы перед возможным увольнением. Таким образом сотрудники пытаются защитить свои компетенции и не дать алгоритмам возможности полноценно скопировать их многолетний профессиональный опыт.

2 лайка

Это не история о конце света; это история о конце нашей невинности

https://t.me/aiforproduct/809

KYC всем

1 лайк