Забыли пароль?
Запросите новый здесь.

Голосование
Как часто вы посещаете данный сайт?

1 раз в день
1 раз в день
25% [2 Голосов]

1 раз в неделю
1 раз в неделю
25% [2 Голосов]

1 раз в месяц
1 раз в месяц
13% [1 Голос]

Очень редко
Очень редко
25% [2 Голосов]

Первый раз зашёл
Первый раз зашёл
13% [1 Голос]

Голосов: 8
Вы должны авторизироваться, чтобы голосовать.
Начат: 26.07.2022 08:08

Архив опросов
Случайная тема
Миничат
Только пользователи могут отправлять сообщения.

jikaka
OfflineAdmin
· 10.08.2024 08:06
ar

Redfield
Offline
· 10.07.2024 13:59
Карта развития представлена тут: https://gameraide.
..hread_id=3

Redfield
Offline
· 08.07.2024 15:42
Присоединяемся к обсуждения https://rusfusion...po
st_30933

Redfield
Offline
· 06.07.2024 20:48
pvam, пока это не так. Потому что визуально сайт не доделан. Работы там много.

Redfield
Offline
· 04.07.2024 15:55
обновлена тема https://rusfusion...po
st_30906

Архив миничата
Сейчас на сайте
» Гостей: 3

Гости:
» [Ваш IP] 05:51:45
/Статьи
» 66.249.66.65 05:50:29
/Профиль
» 69.162.124.230 05:48:45

» Всего пользователей: 1,691
» Новый пользователь: yankoff
В базе имеется
аддонов: 951
тем: 137
Иерархия статей
Яндекс в 10 раз хуже, чем Google

«Яндекс» защищает пользователей в 10 раз хуже, чем Google

«Яндекс» оказался наименее эффективным с точки зрения защиты интернет-пользователей от вредоносных сайтов: 3,3 тыс. из 13,7 млн сайтов в его выдаче содержали вирусы. Google показал наилучший результат из исследованных экспертами поисковиков

Поисковый сервер «Яндекс» допускает в поисковую выдачу 10 раз больше вредоносных сайтов по сравнению с Google - такой вердикт содержится в отчете исследовательской компании AV-Test, занятой вопросами информационной безопаности (скачать PDF отчета).

В течение 18 месяцев, с августа 2011 г. по февраль 2013 г., специалисты антивирусной лаборатории проверили около 40 млн веб-сайтов, на которые вели популярные поисковые системы. Подробности методики исследования в своем отчете не отразили.

Среди 10,9 млн веб-сайтов, на которые специалисты попали через поисковик Google, на 272 сайтах содержалось вредоносное программное обеспечение, и это лучший результат среди всех поисковых систем, которые проверили специалисты.

Bing выдал в 5 раз больше ссылок на вредоносные сайты в результатах поиска в сравнении с Google - 1,3 тыс. среди почти 11 млн ссылок, а «Яндекс» - в 10 раз больше, 3,3 тыс. среди 13,7 млн ссылок.

Крупнейшие поисковики оснащены технологиями автоматической проверки ссылкок для защиты пользователей от заражения. Однако, как и у любого антивируса, их эффективность не стопроцентна. Напомним, что в 2010 г. российский поисковик запустил собственную технологию обнаружения вредоносных ссылок, основанную на поведенческом анализе.

Поисковик Blekko хотя и выдал меньшее число вредоносных ссылок в сравнении с Google, с его помощью было проверено только 3 млн сайтов.

Также были исследованы поисковики Faroo, Teoma и Baidu. Статистику по этим системам в отчете аналитики не приводят.

Вредоносные сайты, на которые попадали пользователи, как правило, эксплуатировали существующие уязвимости в пользовательском ПО - включая устаревшие версии веб-браузеров, расширений и плагинов к ним, а также старые версии PDF-вьюверов.

Всего было обнаружено около 5 тыс. зараженных веб-сайтов, то есть зараженным был каждый восьмитысячный сайт из 40 млн проверенных ресурсов.

Число инфицированных веб-сайтов постоянно растет. Это является следствием непрекращающегося роста количества вредоносных программ в целом, утверждают аналитики. Так, в марте 2013 г. специалистами AV-Test было обнаружено свыше 110 млн экземпляров вредоносного кода. За год это число выросло почти в полтора раза.

По словам экспертов, пользователи могут существенно сократить риск заражения своих компьютеров при посещении вредоносных сайтов, если будут пользоваться наиболее свежими версиями программного обеспечения.

Добавим, что несколько лет назад Google был «королем вредоносного ПО». Согласно исследованию, опубликованному летом 2010 г. компанией Barracuda Labs, в поисковой выдаче Google содержалось вдвое больше вредоносных ссылок, чем у Yahoo, Bing и Twitter вместе взятых.

Пресс-служба «Яндекса» в ответ на просьбу CNews прокомментировать результаты исследования, зявила о многочисленных вопросах к методологии исследования AV-Test.

Так, неясно учитывали ли исследователи, что «Яндекс» не убирает зараженные сайты из выдачи, а предупреждает пользователей о потенциальной опасности прямо рядом со ссылкой в выдаче. Это очень важный вопрос, замечают в поисковике, поскольку если AV-Test считали, сколько зараженных сайтов в выдаче, а другие поисковики, например, убирают из нее зараженные сайты, то сравнение некорректно.

Не вполне ясен термин исследователей «malware found» (заражение найдено). Это те ссылки, которые нашел и о которых предупредил поисковик - или это те зараженные и не промаркированные в выдаче сайты, которые нашли исследователи? Каково вообще в их понимании определение malware?

Кроме того, «Яндекс» задается вопросом, почему для разных поисковых систем количество протестированных сайтов так сильно отличается.

Наконец, пишет пресс-служба «Яндекса», учитывалось ли при в 18-месячном исследовании, что поисковые системы меняют свои технологии безопасного поиска гораздо чаще? Какие конкретно версии антивирусных технологий использовались, при формировании результатов?

В поисковике говорят, что отправили AV-Test эти и многие другие вопросы, но пока не получили никаких ответов. «Яндекс» обещает дать более развернутый комментарий, когда узнает больше о способе и методологии исследования.

 


По материалам Форума cnews


Поделиться этой статьей
Социальные закладки: Vkontakte Odnoklassniki Mail.ru Facebook Google Tweet This
URL:
BBcode:
HTML:


#1 | Vova 22.05.2013 13:38
Avatar
Отсутствует
Пользователь
Активный
С 05.08.2011 11:53
Если было бы у них 1000 датацентров и больше. То был бы лучший.
Мои сайты: ABCVG.com / Допомога учням / ГДЗ / 8Gamers - Игровой портал / Мониторинг CS / Мониторинг игровых серверов / Хостинг от ABCVG.net
#2 | Rush 10.09.2013 08:05
Avatar
Отсутствует
Администратор
Активный
С 31.08.2010 14:41
ты хочешь сказать, что у гугла 1000 датацентров? десятку бы насобирать)
банальный пример, яндекс так медленно индексирует сайты, что складывается такое чувство, что они делают это вручную)
AnnetLab | @annetlab | GitHub Addons repo | AL Shop - open source e-shop for PHP-Fusion | PHPtoday.ru
www.cwer.ru/files/u215323/skach0ibtq6.gif
#3 | Rush 10.09.2013 08:07
Avatar
Отсутствует
Администратор
Активный
С 31.08.2010 14:41
http://pr-cy.ru/a/rusfusion.ru 2000 яндекса против 87000 гугла. an все же яндексу срать и срать, и те кто с этим несогласен - bt
AnnetLab | @annetlab | GitHub Addons repo | AL Shop - open source e-shop for PHP-Fusion | PHPtoday.ru
www.cwer.ru/files/u215323/skach0ibtq6.gif
#4 | Vova 18.10.2013 20:12
Avatar
Отсутствует
Пользователь
Активный
С 05.08.2011 11:53
Им нужно индексировать все. Как гугл. И базы каждый день обновлять. А не раз в неделю. Например яндекс загрузил 200.000 страниц. А в поиск добавил 2.000 страниц с хер зна чем. И с не понятним описанием. И пустые страницы и редиректы.
Мои сайты: ABCVG.com / Допомога учням / ГДЗ / 8Gamers - Игровой портал / Мониторинг CS / Мониторинг игровых серверов / Хостинг от ABCVG.net
Добавить комментарий
Пожалуйста, залогиньтесь для добавления комментария.
Рейтинги
5 (Отлично!) - 3 Голоса

Рейтинг доступен только для пользователей.

Пожалуйста, авторизуйтесьили зарегистрируйтесь для голосования.