24 июля суббота
СЕЙЧАС +14°С

ПОПУЛЯРНЫЕ КОММЕНТАРИИ

ВСЕ КОММЕНТАРИИ (55)

гость
23 мая 2019 в 10:56

Беспардонный отмыв бабла.

ОТВЕТИТЬ
Житель
23 мая 2019 в 13:00

Интересно, было 4 отказа, тем не менее компания все равно проводила анализ в том числе и отказавшихся. Это как понимать?
Далее, а на каком основании этой компании Ростелекомом был организован доступ к камерам? Ведь Ростелеком только подрядчик, исполняет госконтракт, видео с камер на ЕЭ ему не принадлежит. Данное видео должно поступать только уполномоченным организациям/сотрудникам. Причем тут данная компания? Налицо грубейшее нарушение федерального законодательства.

ОТВЕТИТЬ
Антон
23 мая 2019 в 11:55

ну по видео видно, что за несколько секунд программа показывает абсолютно разные эмоции, точно проанализировать их нереально. сейчас радость, через секунду страх и ненависть) и еще необходимо учитывать особенности мимики каждого человека, а уж тем более ребенка. плюс ко всему - какая будет точность у системы с обычных камер наблюдения, где иногда лицо с трудом разглядеть можно, а тут нужно мимику и эмоции считать. система, которая никогда не даст точных результатов, по крайней мере на данный момент.

ОТВЕТИТЬ
кость
23 мая 2019 в 12:01

Это вообще законно, что частная компания для своих выгод (разработок) берет видео поток из школ? там все "Актеры" подписали согласие о съемках и обработке материалов и использованию третьими лицами?

ОТВЕТИТЬ
Гость
23 мая 2019 в 11:28

Цифровой Гулаг вначале испытают на детях?

ОТВЕТИТЬ
Фото пользователя
23 мая 2019 в 11:50

Ещё лет десять с этой властью и каждому новорожденному будут вживлять чип при помощи которого можно будет не только следить за его эмоциями, но и приказывать ему, как себя вести.

ОТВЕТИТЬ
123
23 мая 2019 в 10:59

Под одежду еще не заглядывают ?

Гость
23 мая 2019 в 12:49

Сразу вспомнились пермские "убийцы торрентов", получившие на это грант года 3 назад.
Грант проели - торренты живы.
Так что насчет этого не стоит сильно волноваться.

Гость
23 мая 2019 в 11:22

Крутая технология.
Как бы ни ныли современные луддиты и ханжи- за подобными технологиями будущее. Рад, что такое разрабатывают в родном городе, искренне желаю успехов команде разработчиков,

ОТВЕТИТЬ
Данил
23 мая 2019 в 14:19

Какой удобный единственный вывод: родители ОПАСАЮТСЯ проблем в семье..? Тетя, этот вывод удоем вам, т.к. ,не имея колечка на пальчике, вам ужасно интересно, как это живут в семье... Родители, прежде всего, опасаются, что за их детьми СЛЕДЯТ постоянно. Давайте установим данный контроль в офисе и дома у этой тети .

ОТВЕТИТЬ
ЕХидна
23 мая 2019 в 11:37

тотальный контроль и слежка, кто то потом за эти нитки дергать будет

Совесть
15 окт 2019 в 23:20

В министерстве образования, которое это допускает, не хотят себе такие камеры в кабинетах поставить? Наблюдать за эмоциями в течение рабочего дня. Начать, так сказать, с себя. Отстаньте от детей.

23 мая 2019 в 14:25

"Дас ист фюр потребляйтер защитен" (с)

Всё объясняется безопасностью детей. Хотя, как по мне - анализ ДНК на "ген воина" - дал бы гораздо более интересные результаты.

ОТВЕТИТЬ
гость
23 мая 2019 в 12:14

А ничего, что камеры ЕГЭ работают только во время проведения экзамена, т.к. закупленные туда китайские USB поделки тормозят, виснут и в принципе не предназначены для бесперебойной работы. Обслуживание всей этой музыки повесят на учителей информатики?

ОТВЕТИТЬ
Житель
23 мая 2019 в 18:00

К счастью, есть достаточно эффективные средства противодействовать подобным технологиям распознавания лиц. Вот некоторые из них:
1. Mask attack, или, говоря по русски, использование маски. Данная маска может выглядеть очень реалистично, а при использовании еще и имитации тепла живого лица данное противодействие показывает очень хорошую результативность.
2. Можно просто банально одеть очки, оправа которых блестит и переливается разными цветами. Все нейронные сети в большинстве случае перестают определять лицо. А если при этом использовать и стекло очков с различными эффектами, то эффективность защиты от слежки увеличивается в разы.

Нейронные сети перестают работать, когда применяются в других условиях, нежели когда они тренировались на наборах данных. Например можно хаотично моргать светом в помещении, и распознавание упадет до 0% :-)
Другими словами, глубокое обучение в области face anti-spoofing все еще весьма наивно :-)

ОТВЕТИТЬ
гость
23 мая 2019 в 10:58

Как мы раньше без этого жили? Страшно становится.

Пермяк
23 мая 2019 в 11:43

Любое нововведение, даже под благим предлогом сталкнется с таким уровнем коррупции и разгельдяйства, что работать не будет.
Помните как вводились камеры типа "безопасный город", тогда говорили что любое преступление будет раскрыто и всех найдут.
В итоге закупили самые дешёвые камеры, а профит положили в карман, а гражданам в отношении которых были совершены преступления показывали мутное видео с лагами в 3 секунды. Тогда миллиарды своровали, а затем на поддержание не рабочей системы доворовывали несколько лет.

Гость
23 мая 2019 в 14:10

Лучше бы в рамках безопасности школьников такие навороты ввели.

Билл Гейтс
8 фев 2021 в 17:32

Электронный концлагерь гораздо ближе чем мы думаем.

Загрузка...