Средства подбора паролей и несанкционированный доступ. Методы защиты от хаотичных интенсивных запросов. Реализация системы защиты в виде php-скрипта. Расчет затрат на создание скрипта для защиты сайта от сканирования и хаотичных интенсивных запросов.
При низкой оригинальности работы "Разработка метода защиты сайтов от сканирования и хаотичных интенсивных запросов", Вы можете повысить уникальность этой работы до 80-100%
В Интернете существует проблема медленной работы сайтов, связанная с частыми обращениями к ним. Но эта проблема может коснуться и небольших сайтов, так как даже при малой посещаемости сайт может подвергаться высокой нагрузке. Высокая нагрузка создается различными роботами, постоянно сканирующими сайты. Так же свою лепту в снижение производительности сайта или вообще отказа в обслуживании вносят пользователи. Если у сайта достаточно высокая посещаемость, то большое значение играет количество страниц, запрошенных одним пользователем за малый промежуток времени.Сканирование сайта осуществляется программами или сайтами. Можно выделить два основополагающих вида сканирования: это сканирование сайта вручную и сканирование сайта при помощи программы-краулера. Во время сканирования сайта вручную человек обращает внимание на наличие статических и динамических страниц на ресурсе, изучает структуру каталогов, получает доступ к вспомогательным файлам. Краулер (crawler) представляет собой программу, которая позволяет автоматизировать процесс сканирования сайта. Этот инструмент дает возможность получить на локальный жесткий диск полное содержимое сканируемого Web-узла.В случае использования готового сценария можно быстро выявить уязвимости, оставленные программистами в защите веб-ресурса. Далее рассмотрим сценарии и утилиты, позволяющие выявить уязвимость в процессе сканирования сайта. Сценарий Phfscan.c направлен на выявление уязвимости PHF, которая в свое время оказалась первой общеизвестной уязвимостью, оставляемой в защите скрипта веб-сервера. Такого рода уязвимость дает возможность атакующему исполнять любые команды от лица пользователя веб-сервера. Сценарий Cgiscan.c направлен на сканирование систем и поиск в них старых уязвимостей (в том числе уязвимости PHF, оставленных test-cgi, count.cgi, webdist.cgi, handler, nph-test-cgi и пр.) [3, стр.Подытоживая все вышесказанное можно сделать вывод о том, что информацию на сайте необходимо защитить от различных сканирующих программ, а также от тех программ, которые используют уже обнаруженные уязвимости, найденные в используемом программном обеспечении.В данных событиях можно выделить две части - действие, к примеру, чтение, запись, изменение данных, а также адресат этого действия, к примеру, файл или процесс операционной системы. Подобные ограничения носят название политики безопасности и, в случае, если в системе происходит множество событий, которые нарушают установленную на сервере политику безопасности, то подобная ситуация вполне может быть интерпретирована как один из признаков хакерской атаки. В частности, выявление множества сетевых пакетов, имеющих специально искаженную структуру (которая зафиксирована в определенном шаблоне) вполне может говорить о том, что предпринимается попытка определить тип операционной системы, установленной на веб-сервере. Появление непонятных отказов во время запуска каких-либо служб на веб-сервере, или же возникновение внезапной перегрузки серверного процессора вполне могут свидетельствовать о злонамеренных интенсивных запросах от пользователей. В то же время, причиной возникновения перегрузки процессора на веб-сервере вполне может быть работа программы подбирающей пароли с использованием метода перебора.Например, если на форуме или же в гостевой книге сайта, любой пользователь может оставить сообщение, то следует учесть то, что часть пользователей решит воспользоваться возможностью отправки сообщений и «пофлудить». Такого рода действия пользователя не только создают бессмысленную нагрузку на ресурсы вебсайта, но и наполняют базу данных ненужной информацией, что в свою очередь ведет к снижению скорости ее работы и, соответственно, увеличению времени, необходимого на выполнение какого-либо запроса к серверу базы данных [8, стр. Основная цель подобного рода действий, как можно догадаться из названия, заключается в том, чтоб заставить веб-сервер не отвечать на те запросы, которые поступают от пользователей. К примеру, если на сервере не проверяется корректность всех входящих пакетов, то злоумышленник вполне может создать такой запрос, на который серверу потребуется очень много времени на обработку, соответственно, на работу с другими соединениями у веб-сервера просто не хватит его процессорного времени. В случае если во время приема информации программой не будет проверен размер принимаемого блока, то во время записи полученных данных в буфер обмена сервера их размер выйдет за пределы отведенного объема памяти и будет записан поверх кода.Дело в том, что всплеск активности пользователей, вполне может вызвать большую нагрузку на оборудование веб-сервера и тем самым привести к тому, что сайт перестанет отвечать на запросы пользователей. Кроме того, многочисленные интенсивные запросы вполне могут создаваться разного рода программным обеспечением, которое используется злоумышленниками во время сканирования сайта, поиска уязвимостей в его скрипте и т.д.В истории существования сети Интернет есть сведения о многочисленных разрушительных атаках прои
План
Содержание пояснительной записки (перечень подлежащих разработке вопросов)
1. Анализ распространенных видов сканирования и хаотичных интенсивных запросов
1.1. Анализ распространенных видов сканирования
1.1.1. Средства копирования содержимого сайта и осуществления поиска в нем
1.1.2. Программы для поиска уязвимостей
1.1.3. Результаты анализа распространенных видов сканирования сайта
1.2. Анализ хаотичных интенсивных запросов
1.2.1. Средства подбора паролей и несанкционированный доступ
1.2.2. Средства, направленные на нарушение работы сайта
1.2.3. Результаты анализа хаотичных интенсивных запросов
2. Разработка методов защиты от сканирования и хаотичных интенсивных запросов
2.1. Методы защиты от сканирования
2.2. Методы защиты от хаотичных интенсивных запросов
2.3. Программные средства защиты сайта
2.4. Разработка методов защиты сайта от сканирования и хаотичных интенсивных запросов
3. Реализация системы защиты в виде PHP-скрипта
3.1. Данные о реализуемом php-скрипте
3.2. Листинг программы
4. Тестирование PHP-скрипта, внедренного в сайт
4.1. Тестирование вручную
4.2. Тестирование при помощи онлайн-сервисов
4.3. Результаты тестирования php-скрипта, внедренного в сайт
5. Экономическая часть
Введение
5.1. Разработка сетевой модели решения поставленной задачи, составление календарного плана-графика выполнения работ
5.2. Расчет затрат на создание скрипта для защиты сайта от сканирования и хаотичных интенсивных запросов
6. Охрана труда и окружающей среды
6.1. Воздушная среда
6.2. Шум, инфразвук, ультразвук и вибрация.
6.3. Электробезопасность
6.4. Воздействие электромагнитных полей
6.5. Производственное освещение
Срок предоставления студентом законченной работы 13.12.13
Научный руководитель __________________ Черепанов А.В.
Задание принял к исполнению_____ Солодов Максим Вадимович
В Интернете существует проблема медленной работы сайтов, связанная с частыми обращениями к ним. Чаще всего это крупные порталы с высокой посещаемостью. Но эта проблема может коснуться и небольших сайтов, так как даже при малой посещаемости сайт может подвергаться высокой нагрузке. Высокая нагрузка создается различными роботами, постоянно сканирующими сайты. При этом работа сайта может сильно замедлиться, или он вообще может оказаться недоступным.
Так же свою лепту в снижение производительности сайта или вообще отказа в обслуживании вносят пользователи. Если у сайта достаточно высокая посещаемость, то большое значение играет количество страниц, запрошенных одним пользователем за малый промежуток времени.
Для того чтобы выбрать и разработать систему защиты, которая будет наиболее эффективно снижать нагрузку, нужно проанализировать виды сканирования и хаотичных интенсивных запросов.
Существует много различных программ и ресурсов в мировой сети осуществляющих сканирование сайтов с целью получения информации, но из всего их множества мы проанализируем самые распространенные. Так же по аналогии с анализом видов сканирования проанализируем самые распространенные виды хаотичных интенсивных запросов.
Сканирование сайта производится программами, сторонними сайтами или вручную. При этом создается большое количество запросов в короткий промежуток времени. Сканирование сайта чаще всего используют для поиска в нем уязвимостей или копирования содержимого сайта.
Хаотичные интенсивные запросы - это случайные или злонамеренные многочисленные запросы в короткий промежуток времени на страницы сайта со стороны пользователей или роботов. К примеру случайных интенсивных запросов относится частое обновление страницы. К злонамеренным многочисленным запросам относится спам на страницы сайта со стороны пользователей или DOS атаки.
В работе будут разработаны рекомендации по защите сайта от сканирования и хаотичных интенсивных запросов, и создана система на основе php-сценария, использующая эти рекомендации.
Вы можете ЗАГРУЗИТЬ и ПОВЫСИТЬ уникальность своей работы