Нейросети научились обнаруживать запрещенный к показу видеоконтент

Нейросети научились обнаруживать запрещенный к показу видеоконтент
фото показано с gazeta.ru

2019-10-5 11:26

Ученые из Центра компетенций НТИ "Центр технологий распределенных реестров СПбГУ" создали программное обеспечение на основе нейросетей, которое способно распознавать нежелательный контента, в том числе в видеопотоке. Об этом ...

Аналог Ноткоин - TapSwap Получай Бесплатные Монеты

Подробнее читайте на

нейросети научились обнаруживать запрещенный показу видеоконтент

нейросети научились → Результатов: 6 / нейросети научились - фото


Фото: Лента.Ру

Нейросети научились прятать вредоносное ПО

Нейросети будущего смогут успешно скрывать вредоносные программы от антивирусов. Специалисты предположили, что развитые нейросети способны прятать вирусные программы в строчках кода таким образом, чтобы они не были видны антивирусному ПО. Лента.Ру »

2021-12-15 16:03

Фото: vesti.ru

Нейросети научились определять настроение толпы по видео

Ученые создали алгоритм, способный распознавать эмоции и настроения большой группы людей даже на видео низкого качества. Авторы проекта говорят, что их разработка поможет предотвращать конфликты во время митингов, футбольных матчей и других массовых мероприятий. vesti.ru »

2019-03-14 20:46

Фото: vesti.ru

Нейросети научились определять сексуальную ориентацию по фото

Ученые из Стэндфордского университета приспособили нейронные сети для очень точного определения сексуальной ориентации человека по чертам лиц. Искусственный интеллект, который был "натренирован" на 35 тысячах анкет, научился различать мужчину-гомосексуала от гетеросексуала с вероятностью в 81%. vesti.ru »

2017-09-08 17:55

Фото: vesti.ru

Нейросети Google научились тайно "общаться" между собой

Команда научно-исследовательского проекта Google Brain, сфокусированного на глубинном обучении (алгоритмах, которые учат нейросети "думать" и выстраивать логические цепочки), позволила искусственному интеллекту придумать собственную криптографическую систему. vesti.ru »

2016-10-28 18:40