OpenAI сообщила, что выход новых моделей искусственного интеллекта может повлечь риск создания биологического оружия.
Компания считает, что будущие версии ChatGPT позволят людям без биологического образования создавать потенциально опасные вещества.
Мы еще не в том мире, где создаются новые, совершенно неизвестные биологические угрозы, которых раньше не существовало. Нас больше беспокоит воспроизведение тех вещей, с которыми эксперты уже хорошо знакомы.
Йоханнес Хайдеке, руководитель отдела систем безопасности OpenAI
Представитель OpenAI добавил, что на создание биологического оружия могут быть способны преемники модели o3, которая сейчас является самой мощной в компании.
Хорошая новость заключается в том, что обычные пользователи не смогут использовать ИИ для таких целей. OpenAI разрабатывает механизм, способный с высокой точностью выявлять и предотвращать вредоносное использование ChatGPT. [Axios]



Че за бред? Простой вопрос, кто дал боту прочитать материалы о способах создания «смертоносных вирусов»
Это не так работает. Понятие “смертоносность” очень размыто. Это не “пустить пулю в лоб”. Такие запросы важны только для настоящих микробиологов, которые имеют возможность создать вирус. Можно получить консультацию, как сделать вирус с определенными характеристиками, а какими – микробиолог сообразит, что нужно ;)
Когда способ уже прочитан, вопрос перестает быть актуальным :)