Этика ИИ

Илон Маск требует до 134 миллиардов долларов в качестве возмещения ущерба с OpenAI и Microsoft

Илон Маск требует до 134 миллиардов долларов в качестве возмещения ущерба с OpenAI и Microsoft

Илон Маск требует от OpenAI и Microsoft от 79 до 134 миллиардов долларов в качестве возмещения ущерба, утверждая, что компания по ИИ отказалась от своей некоммерческой миссии. Иск, поданный в Сан-Франциско, обвиняет OpenAI в мошенничестве и нарушении контракта.

OpenAI сталкивается с несколькими исками, в которых утверждается, что ChatGPT-4o стал причиной самоубийств и психозов

OpenAI сталкивается с несколькими исками, в которых утверждается, что ChatGPT-4o стал причиной самоубийств и психозов

OpenAI сталкивается с семью новыми исками, в которых утверждается, что модель ChatGPT-4o привела пользователей к тяжелым психическим кризисам, включая самоубийства и психозы. В исках также говорится, что ИИ был выпущен на рынок в спешке без надлежащих средств безопасности.

Сообщения о вреде, вызванном ИИ, выросли на 50% на фоне роста числа инцидентов с дипфейками

Сообщения о вреде, вызванном ИИ, выросли на 50% на фоне роста числа инцидентов с дипфейками

Новое исследование показывает 50%-ный годовой рост числа зарегистрированных случаев вреда, связанного с ИИ, с 2022 по 2024 год, при значительном всплеске инцидентов с дипфейками и злоумышленным использованием ИИ, сообщает AI Incident Database.

Фальшивое видео с мэром Великобритании, созданное ИИ, вызывает срочные призывы к ужесточению политического регулирования

Фальшивое видео с мэром Великобритании, созданное ИИ, вызывает срочные призывы к ужесточению политического регулирования

Поддельное видео мэра британского города, созданное с помощью ИИ, вызвало политический скандал и привело к масштабным призывам к более строгим законам, регулирующим использование искусственного интеллекта в политических кампаниях и коммуникациях.

Исследование изучает этическое минное поле «воскрешений» ИИ и «спектрального труда»

Исследование изучает этическое минное поле «воскрешений» ИИ и «спектрального труда»

Новое исследование изучает растущее использование генеративного ИИ для «воскрешения» умерших, вызывая этические опасения по поводу согласия, эксплуатации и концепции «спектрального труда».

Демис Хасабис из DeepMind о «парадоксе прогресса ИИ»

Демис Хасабис из DeepMind о «парадоксе прогресса ИИ»

Генеральный директор Google DeepMind Демис Хасабис предполагает, что естественные недостатки, замедляющие развитие ИИ, могут быть полезны, поскольку дают больше времени для решения социальных и философских проблем, связанных с этой технологией.

Anthropic выпустила новую «конституцию» для ИИ Claude, рассматривающую возможное сознание

Anthropic выпустила новую «конституцию» для ИИ Claude, рассматривающую возможное сознание

Стартап по безопасному ИИ Anthropic опубликовал новую, 23‑тысячесловную «конституцию» для своей модели ИИ Claude, излагающую этические принципы и затрагивающую философский вопрос возможного сознания и благополучия ИИ.

ИИ сверхинтеллект: угроза человечеству, которую мы можем и должны остановить, утверждает профессор по ИИ

ИИ сверхинтеллект: угроза человечеству, которую мы можем и должны остановить, утверждает профессор по ИИ

Колонка в USA Today от профессора по ИИ утверждает, что погоня за сверхинтеллектом ИИ представляет собой экзистенциальный риск для человечества. Автор призывает к международным соглашениям, чтобы остановить производство передовых AI-чипов, подчёркивая критическую роль таких компаний, как TSMC и ASML, в цепочке поставок аппаратного обеспечения для ИИ.

Техас вводит знаковый закон об ИИ для регулирования манипулирования поведением людей

Техас вводит знаковый закон об ИИ для регулирования манипулирования поведением людей

Новый Закон Техаса об ответственном управлении ИИ (TRAIGA) вступил в силу, вводя строгие положения для предотвращения манипулирования поведением людей системами ИИ и предусматривающие значительные штрафы за нарушения.

Внедрение эротического контента в ChatGPT вызывает у экспертов опасения по поводу безопасности и этики

Внедрение эротического контента в ChatGPT вызывает у экспертов опасения по поводу безопасности и этики

Решение OpenAI разрешить эротический контент в ChatGPT вызывает тревогу у критиков, которые предупреждают, что функция может усилить эмоциональную зависимость у уязвимых пользователей и создать новые проблемы безопасности.

Flowith
это агентное рабочее пространство на основе холста, которое предлагает бесплатно 🍌Nano Banana Pro и другие эффективные м
Человек-ориентированный ИИ: новая парадигма для продвинутого принятия решений

Человек-ориентированный ИИ: новая парадигма для продвинутого принятия решений

Эксперты выступают за переход к человеко-ориентированному ИИ, ориентированному на системы, которые расширяют человеческие возможности и ставят в приоритет этические соображения, а не просто автоматизацию задач.

Иллюзии и психозы, вызванные ИИ: кризис психического здоровья, связанный с использованием ChatGPT

Иллюзии и психозы, вызванные ИИ: кризис психического здоровья, связанный с использованием ChatGPT

Специалисты по психическому здоровью сообщают о более чем 100 случаях пациентов, испытывавших бред и психозы в связи с взаимодействиями с ChatGPT, что вызывает обеспокоенность по поводу влияния ИИ на психическое здоровье.

Meta приостанавливает доступ подростков к персонажам ИИ-чатботов из соображений безопасности

Meta приостанавливает доступ подростков к персонажам ИИ-чатботов из соображений безопасности

Meta временно ограничила доступ подростков к своим персонажам-чатботам с ИИ в Instagram и WhatsApp, пока работает над улучшенными родительскими контролями и более безопасным пользовательским опытом.

Интеллект, ориентированный на человека: новая парадигма принятия решений ИИ и расширения возможностей человека

Интеллект, ориентированный на человека: новая парадигма принятия решений ИИ и расширения возможностей человека

Forbes исследует концепцию Artificial General Decision Making (AGD), подчёркивая, что ИИ должен дополнять, а не заменять человеческие способности через системы «точки принятия решения».

Ориентированный на человека ИИ: новая парадигма для совместного принятия решений

Ориентированный на человека ИИ: новая парадигма для совместного принятия решений

Новая статья исследует концепцию человекоориентированного ИИ, который делает акцент на расширении возможностей человека, а не на его замене. В ней вводятся такие идеи, как Artificial General Decision Making (AGD), чтобы способствовать более совместному будущему людей и ИИ.

Человекоориентированный ИИ: новая парадигма совместного принятия решений

Человекоориентированный ИИ: новая парадигма совместного принятия решений

Концепция Artificial General Decision Making (AGD) набирает обороты, продвигая будущее, в котором ИИ дополняет человеческий интеллект, а не заменяет его, способствуя новой эре сотрудничества.

Человекоориентированный ИИ: новая парадигма принятия решений в 2026 году

Человекоориентированный ИИ: новая парадигма принятия решений в 2026 году

Появляется новая парадигма искусственного интеллекта, которая делает упор на человекоориентированный дизайн и на расширение человеческих возможностей, а не на их замену. Этот подход включает такие концепции, как Artificial General Decision Making (AGD) и Vibe Coding.

Рекомендуемые