
Пользователи социальных сетей обратили внимание на новую способность нейросетей OpenAI — модели o3 и o4-mini научились распознавать местоположение по загруженным изображениям. Технология, разработанная для повышения доступности и помощи в исследованиях, вызвала опасения из-за возможных рисков нарушения приватности.
По данным пользователей, модели уверенно определяют города, заведения и достопримечательности, даже если фото размыто или обрезано. В сети появились десятки примеров, где ИИ успешно угадывает локации по снимкам меню, фасадов зданий и элементов интерьера.
Популярность приобрела игра с моделями по аналогии с GeoGuessr — нейросетям предлагают определить место съёмки по случайной фотографии.
При этом анализ не зависит от наличия геометок или истории диалогов: модели игнорируют EXIF-данные и работают на основе визуальных признаков. Эксперименты TechCrunch показали, что o3 может справляться с задачами наравне или лучше, чем предыдущая версия GPT-4o.
В одном случае модель точно идентифицировала бар в Нью-Йорке по фото фиолетовой головы носорога, тогда как GPT-4o ошиблась с континентом. Однако точность системы нестабильна. В некоторых тестах модель путала Париж с Барселоной, а американский супермаркет — с австралийским.
Пользователи отмечают, что нейросеть часто делает предположения по деталям вроде растительности или архитектурных элементов, не всегда корректно интерпретируя контекст.
Основное беспокойство вызывает отсутствие чётких ограничений на использование функции. Злоумышленник может загрузить скриншот чужой сторис без геометки, а ИИ попытается вычислить местоположение. Это может привести к деанонимизации и нарушению частной жизни.
Представители OpenAI заверяют, что реализованы защитные механизмы: модели отказываются анализировать изображения с личными данными и распознавать лица. Однако на практике фильтры срабатывают выборочно — система может отказаться идентифицировать человека, но охотно найдет ресторан по интерьеру на той же фотографии.
Эксперты считают, что возможности геоанализа могут быть полезны, например, в чрезвычайных ситуациях.
Тем не менее отсутствие прозрачных стандартов и лёгкость доступа к функциям требуют усиления цифровой безопасности. Пока OpenAI воздерживается от анонсов новых мер, пользователи обсуждают способы защиты — от удаления метаданных до искажения изображений перед публикацией.
Рубрика: Технологии и Наука. Читать весь текст на astera.ru.