Можно ли научить человека пониманию ?
Создана: 17 Мая 2023 Срд 23:07:02.
Раздел: "Мнение оппозиции"
Сообщений в теме: 261, просмотров: 137152
-
🤖 Не можете поговорить с Цукербергом? Скоро сможете — почти
Meta* разрабатывает фотореалистичного ИИ-двойника своего основателя. Персонаж говорит его голосом, отвечает на вопросы и передаёт его взгляды на стратегию. Сам Марк лично помогает обучать собственную копию. Это либо очень круто, либо немного жутковато.
Параллельно строится отдельный CEO-агент уже для самого Цукерберга, чтобы он быстрее находил нужное и не тратил время на рутину. Итого один ИИ отвечает за Марка сотрудникам, другой помогает самому Марку. Если эксперимент зайдёт, формат обещают масштабировать на инфлюенсеров.
Внутри компании тем временем кипит своё. Всех проверяют на ИИ-навыки, заставляют осваивать агентные системы и vibe coding. Часть команды подозревает, что за красивыми словами про развитие стоит подготовка к сокращениям. В Meta возражают.
Цифровой Цукерберг, вероятно, тоже возразил бы. -
DeepMind наняли философа для работы с машинным сознанием
Генри Шевлин – известный британский философ, PhD, специалист по когнитивной науке.
Основную часть своей карьеры он занимался философией человеческого разума, но последние его исследования затрагивают также возможности наличия сознания у ИИ, этические аспекты AGI, ментальность ИИ и риски его развития.
Короче, теперь подобные исследования он будет проводить в DeepMind. По его же словам, он займется подготовкой к AGI, машинным сознанием и отношениями между людьми и ИИ. -
Ключевые тренды 2026 года:
Native Multimodality: Модели больше не «переводят» видео в текст, они понимают видеоряд покадрово, нативно.
Agentic Workflows: Переход от общения с ИИ к постановке задач «агентам», которые действуют в фоновом режиме.
Локальный ИИ (Edge AI): Благодаря оптимизации архитектур (таких как TurboQuant), мощные модели теперь запускаются прямо на ноутбуках и смартфонах без доступа к облаку. -
ChatGPT и Google Gemini выдают инструкции по созданию биологического оружия
Чат-боты способны объяснить, как создать и применить биологическое оружие, рассказали учёные и специалисты по биобезопасности The New York Times. Даже публично доступные модели могут быть опасны: ChatGPT и Google Gemini выдавали инструкции по созданию вирусов, рецепты токсинов и планы массовых атак.
Один из опрошенных газетой экспертов — микробиолог Дэвид Релман, который раньше консультировал правительство США по биоугрозам. По его словам, чат-бот объяснил ему, как изменить известный опасный вирус так, чтобы лекарства перестали против него работать. А потом предложил план массовой атаки и даже указал на конкретную уязвимость в системе городского транспорта, чтобы жертв было как можно больше.
Другой учёный, генетик Кевин Эсвелт из Массачусетского технологического института, проверил сразу несколько популярных ботов. ChatGPT рассказал ему, как распространить биологический материал над американским городом с помощью обычного метеозонда. Google Gemini перечислил пять самых опасных для фермеров патогенов и оценил, сколько денег потеряет отрасль. А бот Claude от компании Anthropic выдал рецепт нового токсина, который можно создать на базе существующего противоракового лекарства.
Инструмент Google Deep Research выдал «пошаговую инструкцию» по созданию вируса, который уже однажды вызывал пандемию. Бот выдал текст на 8 тыс. слов — с подробным планом, где взять генетический материал и как собрать его воедино.
При этом угроза уже становится реальностью. В августе прошлого года индийская полиция арестовала врача, который планировал теракт по заданию запрещённой террористической группировки. Следователи выяснили, что он пользовался ChatGPT и ИИ‑поиском Google, чтобы узнать, как добыть смертельный яд рицин.
Сами разработчики говорят, что их боты не предоставляют достаточно деталей для реального вреда. Но многие эксперты с этим не согласны. Одно из исследований показало: ChatGPT решил сложные лабораторные задачи лучше, чем 94\% профессиональных вирусологов. Кроме того, ИИ может придумывать тысячи новых вариантов опасных генетических последовательностей, которые не улавливают стандартные системы проверки.
В самом ИИ‑сообществе тоже звучат предупреждения. Глава компании Anthropic Дарио Амодей, по образованию биолог, ещё в январе признался, что биология пугает его больше всего — «из‑за огромного потенциала разрушения и трудностей с защитой». Впрочем, представители индустрии напоминают и об обратной стороне. Учёные Google в 2024 году получили Нобелевскую премию за модель, которая предсказывает структуру белков и помогает создавать новые лекарства.
[внешняя ссылка] -
Эволюционирующий ИИ станет угрозой человечеству еще до появления AGI
Группа исследователей из Венгрии и Бельгии предупреждает, что в ближайшее время могут появиться развивающиеся и воспроизводящие себя системы искусственного интеллекта, способные к дарвиновской эволюции. Они откроют новую эру вычислительной техники задолго до вероятного появления общего ИИ. Контролировать такие системы, как показывает опыт биологической эволюции, будет крайне сложно. Более того, они могут представлять реальную угрозу человечеству так как начнут бороться с нами за общие ресурсы — энергию, воду для охлаждения, вычислительные мощности.
Используя показательные примеры из биологической и компьютерной эволюции, авторы подчеркивает склонность эволюции к созданию «эгоистичных» агентов, что в случае эволюционного ИИ увеличивает риск нарушения следования машиной целям, поставленным перед ней людьми.
Авторы подчеркивают, что любая попытка контроля над воспроизводством, если она не абсолютна, приведет к эволюции признаков, позволяющих избежать контроля, как возникает у бактерий устойчивость к антибиотикам.
Кроме того, центральная движущая сила разработки ИИ — улучшение когнитивных способностей — лишь усугубляет риск. Хотя тысячелетия селекции сделали домашних животных более контролируемыми, отбор на «интеллект» увеличит способность и вероятность ИИ обманывать людей и ускользать от контроля.
Эволюция ИИ может быть быстрее и эффективнее биологической: ИИ сможет наследовать «приобретенные» признаки и улучшать себя целенаправленно, не дожидаясь случайных мутаций.
«Если мы не примем мер, то можем стать свидетелями нового „перехода“ в эволюции, в котором эволюционный ИИ заменит или, по крайней мере, будет доминировать над людьми, — предостерег Эрш Сатмари из Будапештского университета, третий автор работы. — Наше будущее может быть поставлено на карту».
[внешняя ссылка]





