Сбор открытых данных. Угрозы социальных сетей Выполнила студентка группы 3881 Жданова Маргарита
Угрозы социальных сетей
Фишинг регистрационных данных Единственная функция этой страницы перенаправить пользователя на настоящий сайт социальной сети после того, как он введет свои регистрационные данные. Полученным логином и паролем фишер может распорядиться следующим образом: продать на черном рынке; использовать для сбора дополнительной информации о жертве, зайдя в ее профиль; использовать взломанную учетную запись этой социальной сети для рассылки спама.
Программы для кражи паролей Еще один тип угроз, который мигрировал в социальные сети из систем интернет-банкинга - это программы для кражи паролей. Они внедряют части своего кода в браузер (в основном, в Internet Explorer и иногда в Firefox) для того, чтобы похитить регистрационные данные до того, как они будут отправлены на сервер.
Как можно стать жертвой drive- by атак Зайти на вредоносный сайт Засыпать Twitter и сайты блоггеров спамом и комментариями, содержащими ссылки на вредоносные ресурсы.
Кому можно доверить информацию? Такие сайты, как Facebook, часто разрешают третьим сторонам разрабатывать и добавлять их собственные «Приложения и в итоге обеспечивает им доступ к профилям пользователей. Приложения, использующие интеллектуальную технологию социальной инженерии (например, троянские программы), могут вынудить пользователя виртуально обнародовать все его персональные данные. Компании, подобные Facebook, знают об этой проблеме и вручную проверяют все приложения, прежде чем пустить их в свою сеть.
Сбор открытой информации
Парсер Парсер – программа, которая обеспечивает автоматическую обработку (разборку) страниц сайтов с целью получения нужных данных. Парсить (разбирать) можно выдачу поисковой системы на предмет позиций сайта, можно страницы на предмет нахождения там нужной ссылки и т.п.
new.py from BeautifulSoup import BeautifulSoup #для обработки HTML from BeautifulSoup import BeautifulStoneSoup # для обработки XML import urllib page = urllib.urlopen(" # функция urllib.urlopen() создает файлоподобный объект, который читает методом read() soup = BeautifulSoup(page, fromEncoding="utf-8") print soup.originalEncoding for topic in soup.findAll(True, events'): print str(topic).decode('utf8') print raw_input()
Результат запуска скрипта
Спасибо за внимание ;)