Внутренняя оптимизация.

Доступность сайта и время отклика.

Одним из наиважнейших параметров внутренней оптимизации является время отклика. Оно складывается из множества важных факторов.
  1. Время обработки запроса сервером.
    Время, за которое веб-сервер обработает пришедший ему запрос, и начнёт отдачу ответа.
    Зависит от нескольких параметров: производительность сервера, используемое серверное ПО, характер, объём и особенности отдаваемого контента.
    Производительность сервера — это ключевой элемент быстро работающей системы. Если сервер сам по себе маломощный, то остаётся либо обновить железо/тарифный план/сменить хостинг-провайдера, либо смириться с тем, что он будет тормозить от любой нагрузки и страниц тяжелее helloworld’а. И наоборот, даже откровенно криво настроенный сервер с непомерно раздутым контентом может быстро работать до поры до времени, если он оснащён новейшим высокопроизводительным железом (хотя это и не повод отказываться от оптимизации ПО и контента, но мощное железо часто в условиях слабо- и, иногда, средненагруженных проектов способно скрыть эти проблемы). Конфигурация ПО. Вторым по важности параметром для быстродействия сервера является конфигурация ПО. По возможности, сервер должен располагаться на отдельной машине, реальной или виртуальной, и на нём должно быть установлено и запущено только необходимое для его работы ПО, установка же целого вороха программ «на всякий случай» недопустима. Во многих версиях серверных ОС даже отсутствует по умолчанию графическая оболочка, как излишняя для его функционирования. Так же важно уделить внимание оптимизации ПО в контексте размещённого на сайте контента и активности пользователей. Так, например, если у сайта высокая посещаемость и обилие нединамического контента, то есть смысл настроить nginx, который работает со статическим контентом гораздо быстрее apache’а.
    Отдаваемый контент. Тут, при желании, можно развернуть целый курс лекций, но можно выделить и несколько простых советов. Поменьше включений в страницы, поменьше размером (если вы вставите фоном в сайт FullHD видео, то ваш сайт будет тормозить вне зависимости от вашего железа и конфигурации ПО), и код динамических страниц пооптимальней и попроще. Правила написания качественного и быстрого кода динамических веб-страниц выходят за рамки данной статьи, и сильно зависят от конкретного инструментария (PHP, ASP.NET, Java-сервлеты, и т. д.), поэтому ограничимся несколькими универсальными советами — поменьше обращений к диску, БД и вообще операций ввода — вывода, лучше одно большое обращение за раз, чем десять мелких, если есть возможность перенести обработку данных на СУБД — её нужно перенести на СУБД.
  2. Скорость Интернет-соединения.
    Второй по важности составляющей является скорость интернет-соединения. В условиях географической близости сервера и клиента всё просто: нужна скорость — оплати скорость у (хостинг)провайдера. Ну и, само собой, в случае собственного физического сервера, следует убедиться, что используется современное и качественное сетевое оборудование, так как гигабитная выделенная линия ничем не поможет, в случае, если трафик идёт через допотопный роутер, который в принципе не способен обрабатывать такой трафик. В условиях, когда сервер и клиент физически отдалены, поговорим в следующем пункте.
  3. Физическое и логическое расстояние между сервером и клиентом.
    Скорость света — величина, пусть и весьма значительная, но конечная, и при передаче данных на другой конец Земли будут задержки, близкие к заградительным для попадания в поисковую выдачу даже в самых идеальных условиях — из-за физических законов. Но это в нереально-идеальных условиях. На практике же на каждые 100-150 метров Ethernet кабеля должен стоять повторитель, каждый из которых будет есть от 4-6 мс и выше, плюс ветвь Ethernet сети не может быть больше 2.5км из-за ограничений протокола, между отрезками сети должно быть устройство, преобразующее пакеты (свитч, роутер и т. д.), которое даёт ещё большую задержку. У оптоволокна ситуация получше — 10+мс повторитель каждые 60-100км, но на больших расстояниях и они накапливают задержку, достаточную чтобы вызвать недовольство пользователей и понижение выдачи в поисковых системах. Поэтому важно, чтобы сервер физически находился близко к клиентам (или, по крайней мере, к дата-центру поисковика, приоритетного для продвижения), иначе задержки на линии могут стать недопустимыми даже в случае идеально сконфигурированного сервера на сверхмощном железе топ-класса, отдающего лишь статический контент. В случае же, когда вам требуется покрыть большую географическую зону, будет иметь смысл настройка нескольких серверов, каждый из которых будет обслуживать свой географический регион.

Правильная внутренняя перелинковка.

Вы никогда не задумывались, откуда поисковик узнаёт о том, что у вас на сайте появились новые страницы? Ответ: из ссылок. Поисковик время от времени переиндексирует страницы, о которых ему известно. Одним из этапов переиндексации является извлечение из страниц ссылок, и добавление тех из них, которые отсутствуют в индексе поисковика, в этот самый индекс. То есть, чтобы ваша страница была когда-нибудь проиндексирована, требуется, чтобы на неё вела ссылка с раннее проиндексированной страницы, иначе о ней никто никогда не узнает. Из этого следует первое правило внутренней перелинковки: на каждую страницу, подлежащую индексированию, обязательно должна вести как минимум одна ссылка со страницы, подлежащей индексированию. Несмотря на довольно высокую очевидность, у этого пункта есть свои подводные камни. Например, что можно считать отдельными страницами. Многие страницы бывают представлены адресами типа index.php?action=catalog&category=phone&manufactured=LG&page=3&goods_count=20#main_section. Согласитесь, что даже человеку составит сложность разобраться, что за что отвечает, и определить, что, например, вышеприведённая страница и страница вида index.php?action=catalog&category=phone&manufactured=LG&page=5&goods_count=10 — это в принципе, одна и та же страница, только с урезанным до десяти наименований списком товаров, а страница index.php?action=catalog&category=phone&manufactured=Xiaomi&page=3&goods_count=20 – уже совсем другая страница. Конечно, поисковики выработали механизмы, помогающие понимать, когда динамическая веб-страница — это именно динамическая веб-страница, просто принимающая некоторые параметры (например, страница комментариев), а когда — точка входа для многих отдельных страниц (типа read.php?page=2). Но эти механизмы несовершенны, и сами поисковики рекомендуют на них не полагаться, а с помощью mod rewrite’а или иного инструмента назначать таким страницам человеко-понятный URL (ЧПУ), поощряя такие страницы более высокими результатами в поиске. Так же существует проблема неявного определения ссылок. Многие сайты предлагают своим посетителям задать определённые параметры с помощью формы, чтобы отфильтровать контент и выдать им только ту информацию, которая будет им интересно. Но то, что для того, чтобы получить, к примеру, список телефонов в продаже, нужно из выпадающего списка «категории» выбрать «телефоны и смартфоны» и нажать «найти», понятно живому человеку. А поисковым системам, несмотря на все старания их авторов, никто ещё полноценные мозги не приделал. Из-за чего далеко не факт, что поисковик, увидев форму с выбором категорий товаров, сможет понять, что это аналог ссылок (наиболее вероятно, что он вообще проигнорирует форму, в лучшем случае просто перейдёт по action’у, отбросив параметры). Одним из вариантов решения данной проблемы является создание для каждой категории списка относящихся к ним страниц, и дублирование ссылками на них фильтров формы поиска. Как результат, поисковик, несмотря на то, что не сможет нормально обработать форму с фильтрами, сможет увидеть обычные ссылки, и, перейдя по ним, получить список доступных страниц следующего уровня, и сможет проиндексировать их. Это не единственная важная особенность перелинковки. Многие поисковики (в число которых по многим признакам входит Яндекс) вместо того, чтобы вразнобой обходить страницы, добавляют в список на индексирования главную страницу сайта, и затем обходят сразу весь сайт. Кроме изменения порядка обхода, это влечёт за собой и несколько других особенностей. Во-первых, если на страницу вела ссылка из вне сайта, но по каким-либо причинам отсутствуют ссылки изнутри (например, страница, с которой вела внутренняя ссылка, была добавлена в robots.txt, и, как следствие, её ссылки оказались неиндексированными), то такая страница могла выпасть из поискового индекса. Во-вторых, следующие такому подходу поисковики могут оценивать страницы по такому критерию, как глубина вложенности, то есть чем больше требуется переходов с главной страницы, чтобы достичь текущую, тем больше будет её глубина. Многие поисковики понижают результаты страниц с высокой глубиной, подразумевая то, что информация, которую её автор считал важной, не будет размещена где-то в глубинах сайта, а наоборот, будет вытолкнута как можно выше.

Динамически подгружаемый контент.

Данный пункт весьма близок по смыслу к предыдущему (перелинковке), но имеет и свои особенности. Если секции сайта, путь к которым лежит через страницы с формами, могут оказаться отсечены от индекса из-за того, что поисковики не могут воспользоваться формами, то страницы, на которых контент формируется на стороне клиента с помощью Javascript, Adobe Flash, Silverlight и иных способов, могут вылететь из поиска из-за недостаточно эффективной работы поисковиков с динамически формируемым контентом. Несмотря на то, что поисковые системы прилагают значительные усилия для того, чтобы научиться понимать формируемый скриптами контент, далеко не всегда возможно с первого взгляда вообще отличить скрипт, формирующий контент, от какого-нибудь бесполезного скрипта вроде скрипта ведения статистики, который раз в определённое отправляет на сервер запрос, не говоря уже о том, чтобы эффективно автоматизировать анализ кода и чёткое определение того, исполнение каких участков кода нужно непременно дождаться перед индексированием страницы. Поэтому настоятельно не рекомендуется злоупотреблять AJAX’ом и иными подобными технологиями при формировании подлежащего индексации контента (т. е. , к примеру, подгружать скриптом карту проезда можно, а вот строку с адресом фирмы лучше сформировать и добавить на страницу на стороне сервера).

Медиа-контент.

Иногда может показаться, что вместо того, чтобы возиться с HTML и CSS для предоставления информации в наилучшем со стороны дизайнера виде, проще просто вставить сформированную в Adobe Photoshop’е картинку, или вместо того, чтобы напечатать целую «простыню» текста — записать и разместить на странице одно единственное видео. Но у подобного подхода есть один огромный минус — подобный контент очень плохо (а ещё недавно — совсем никак) обрабатывается поисковыми системами. Поэтому, если вы хотите, чтобы размещённая информация была проиндексирована — либо формируйте её изначально в текстовом виде, либо снабжайте медиа-контент мета-данными (например, картинке с дизайнерски отрисованным слоганом можно в параметр alt прописать этот самый слоган).

Отсутствие плагиата и повторяющегося текста.

Как привлечь пользователей на сайт? Этот вопрос актуален с тех пор, как Интернет перестал быть сетью для обмена данных военными. С тех пор было дано множество ответов: сделать сайт быстрым, красивым, сделать его одинаково работающим во всех браузерах, купить рекламу и т. д. Но один ответ остаётся неизменным во все времена: разместить на сайте что-либо, что будет интересно пользователю. Если на сайте отсутствует что-либо, что действительно интересно пользователю, то он просто закроет ваш сайт, а актуальный контент сам по себе позволяет привлечь пользователей, которые будут находить сайт в поисковиках по своим запросам, и делиться ссылками на него. Как же создать/найти интересный и актуальный контент? Это ещё более интересный и обширный вопрос, на который в принципе не существует простых ответов. Кроме одного: взять интересный контент у кого-то другого. Купить. Или украсть и выдать за свой. И, к сожалению многие выбрали именно этот простой путь. Как результат, в Интернете стали появляться тысячи сайтов, на которых в принципе не было какого-то своего контента — лишь скопированный откуда-то ещё. Ведь зачем напрягаться, придумывать что-то своё, когда можно просто нажать Ctrl+C – Ctrl+V. Разумеется, это не могло не сказаться на качестве поисковой выдачи. Десятки почти одинаковых страниц, отличающиеся в лучшем случае парой слов, заменённых на синонимы, и многие страницы поисковой выдачи, которые нужно было просмотреть для того, чтобы найти что-то новое прилагаются. Долго терпеть такое пользователи поисковиков, и, как следствие, поисковики были не в силах. И, как ответ, появились плагиат-фильтры. Они группировали страницы по повторяющемуся контенту, после чего выбирали одну из них, которая должна была отображаться, а остальным резали рейтинг, отправляя их в самый хвост выдачи, или вовсе удаляли из выдачи/индекса. Обычно той страницей, которая попадала в выдачу, являлась самая первая страница, которая разместила данный материал. Такие меры позволили нормализовать ситуацию, и исправить засилье копипастеров. Конечно, они полностью не исчезли, и со временем научились обманывать плагиат-фильтры, изменяя текст достаточно, чтобы плагиат-фильтры переставали считать один текст копией другого, но этот процесс плохо поддаётся автоматизации, и, как следствие, перепечатка чужого текста превратилась из банальной рутины в достаточно сложный и творческий процесс, что существенно замедлило темпы и привело к тому, что во многих случаях стало проще написать свой текст по той же теме, чем пытаться переделать чужой. Чем грозит попадание под плагиат-фильтры, и как его избежать? В зависимости от поисковиков попадание под плагиат-фильтры может привести к существенному понижению в поисковой выдачи (вплоть до полного исключения) части или всего сайта. Так, например, Яндекс, обнаружив плагиат, понижает весь сайт в выдаче (в среднем на 20 — 30 позиций для сайтов, претендующих на попадания на первые страницы выдачи). Как избежать попаданий под плагиат-фильтр? Прежде всего, конечно же, не использовать на сайте текстовые материалы, взятые с чужих сайтов. Если по каким-либо причинам требуется разместить чужой контент (например, перепечатка научной статьи), то разумным поступком будет исключить данный материал из поискового индекса (добавить страницу с чужим контентом в robots.txt, обрамить чужой текст на странице в теги , чтобы исключить данный текст из индекса, и, как следствие, избежать санкций за плагиат). Во избежание неприятных сюрпризов рекомендуется прогонять свои тексты через анализатор плагиата, а так же перед размещением на свой сайт добавить их в Яндекс.Вебмастер, дабы избежать возможной ситуации, когда плагиатчик скопировал у вас текст, и попал в индекс Яндекса раньше вас, после чего именно вы попали под санкции за плагиат.

Правильно сформулированный список ключевых фраз, и разумная плотность их включения на страницах.

Что такое ключевые фразы? Это фразы, по которым в Интернете должен находиться ваш сайт, и на продвижении в топ поисковой выдачи по которым концентрируются усилия по раскрутке сайта. Например, для фирмы, занимающейся пассажирскими перевозками между Москвой и областью, такими фразами будут «билет в Москву», «поездка в Москву» и т. д. Правильный подбор ключевых фраз — это целое искусство. Требуется учесть и проанализировать множество факторов: область деятельности сайта (пассажироперевозки, продажа окон и т. д.), наиболее популярные запросы по теме сайта («билет в Москву», «купить пластиковые окна» и т. д.) , оценить конкурентоспособность и выявить наиболее перспективные для продвижения (например, запрос «купить пластиковые окна Ростов» гораздо менее популярен, чем «купить пластиковые окна», но затраты на его продвижение так же гораздо меньше, и он даст трафик не из жителей всей России, а, преимущественно, из Ростова, что не очень хорошо для фирмы с амбициями по покрытию своей продукцией всей страны, но, наоборот, будет плюсом для фирмы, размещённой и ориентирующейся на Ростов). При начале продвижения лучше всего ориентироваться на среднечастотные запросы, так как высокочастотные запросы обычно уже заняты намертво, и подвинуть занимающих их сайты будет очень трудно (и дорого), а низкочастотные запросы малопопулярны, длинны, и малоочевидны, что ведёт к тому, что для составления списка ключевых фраз по низкочастотникам и дальнейшему продвижению требуются усилия опытного SEOшника, хорошо знакомого с конкретной областью деятельности, и низкой отдачи от затраченных усилий даже в случае успеха, что приводит к низкой рентабельности продвижения по низкочастотникам даже в условиях высокой вероятности успеха продвижения в топ выдачи. Размещение ключевых фраз на страницах. Чтобы страница находилась в поисковике по ключевой фразе, эта самая фраза должна присутствовать на данной странице. Крайне желательно, именно в той форме, в которой она определена. Несмотря на то, что современные поисковики понимают и падежи, и синонимы, а иногда и могут понять нечёткий запрос на естественном языке, например, Яндекс по запросу «фильм, где японские крестьяне для защиты от бандитов наняли отряд самураев» выведет результаты по фильму «Семь самураев», точное соответствие запроса размещённой на странице информации всё ещё является крайне важным параметром в определении соответствия страницы запросу. Кроме того, как показала практика, точное соответствие размещённой на странице ключевой фразы запросу влияет на учитывание поведенческого фактора для страницы. При неполном соответствии запроса и текста на сайте при других равных параметрах (в том числе, и переходов на сайт из поисковой выдачи) прирост траста (доверия поисковой системы ресурсу) от пользователей поисковых систем, перешедших из поисковой выдачи на сайт, и там и оставшихся (что подразумевает, что они нашли то, что искали) значительно снижается, даже если сайт свободно попадает в выдачу по этому запросу. Для размещения ключевых фраз на сайте есть классическое правило «одна фраза — одна страница», что означает, что для каждой ключевой фразы следует по возможности создать отдельную, посвящённую этой ключевой фразе страницу. Это не жёстко установленное требование, но всё же настоятельно рекомендуемое к исполнению. Кроме того, его не всегда возможно исполнять. К примеру, для запросов «пластиковые окна цена» и «пластиковые окна стоимость» создать отдельные страницы без нарушения логики сайта будет затруднительно. Вариантом выхода из таких ситуаций может быть выбор из серии схожих ключевых фраз одной (например, самой популярной, или же той, за которую меньше конкуренция), и концентрирование всех усилий на ней, или же совместное размещение всех их на одной странице (но при этом нельзя забывать, что размещение нескольких ключевых фраз на одной странице — это вынужденная мера, а не норма, и по возможности следует избегать таких ситуаций и дробить такие кластеры запросов на минимальные разумные части). При размещении ключевых фраз на страницах сайта следует учитывать так же такой параметр, как тошнота. Она определяется частотой повторений слов и фраз в тексте. Тошноту обычно выделяют двух видов: классическую и академическую. Классическая тошнота определяется частотой повторения слов в тексте, и не учитывает его объём. Она вычисляется по формуле T = sqrt(keywords), где T – тошнота, а keywords – частота включения ключевых слов (или фраз). Точных значений, которых должна придерживаться классическая тошнота, не публиковалось, но считается, что она должна лежать в пределах 2.5 — 7. Точные значения, которых должна придерживаться классическая тошнота текста, неизвестны, к тому же она учитывает абсолютное количество слов, но не частоту, с которой они встречаются, поэтому она малопопулярна для оценки качества текста, и вместо неё часто используют академическую тошноту, избавленную от этих недостатков. Академическая тошнота — это соотношение частоты включения ключевых слов к общему объёму текста. Вычисляется по формуле T = (keywords / textsize) * 100, где textsize – количество слов в тексте. Большинство поисковых систем считает, что академическая тошнота не должна превышать 8%. Кроме верхней планки тошноты, многие источники выделяют и нижнюю, из опасений, что в случае недостаточно частого включения ключевых слов поисковые системы могут счесть их малозначимыми на данной странице. Поэтому рекомендуется держать тошноту не менее 3%. Так же важно учитывать тот факт, что поисковики считают тошноту по всем словам, а не только по вашим ключевым фразам, поэтому старайтесь не допускать излишнего повторения слов на странице вне зависимости от того, продвигаетесь ли вы по ним, или нет.

Отсутствие на сайте рекламы.

Здесь всё просто: нет рекламы — нет проблем. Но если уж вы решили добавить рекламу, убедитесь, что она тематическая, не вредит восприятию сайта, не оскорбляет пользователей, и её количество незначительно по сравнению с полезным контентом (пример — habrahabr.ru). Но ещё раз, рекламу лучше вовсе удалить. Тизерная реклама. Её не должно быть ни в коем случае! Она действительно серьёзно вредит и восприятию, и продвижению сайта!

Отсутствие вирусов на сайте.

Под обобщённым названием «вирусы» скрывается целый ряд угроз, многие из которых к, собственно, вирусам имеют очень отдалённое отношение. Некоторые из них очевидны, некоторые не очень, а некоторые могут вызвать искреннее удивление «За что?!», когда поисковик или антивирус обвинит сайт в наличие вирусов. Важно понимать, что поисковые системы и антивирусы могут счесть «вирусом», почему, и как избежать попадания вашего сайта под их санкции. Включение вредоносных скриптов, flash-включений, Silverlight и так далее. Самый простой и самый надёжный способ попасть под санкции. Найденный где-то скрипт 2005 года, который, будучи открыт в IE6 из-под Windows XP, будет отслеживать номера кредитных карточек, в 2018 вызовет лишь смех и бан в поисковых системах, удачная реализация Meltdown на Javascript’е — вызовет бан, и вполне возможно, визит компетентных органов. Вредоносные ссылки. Для попадания под этот пункт на вашем сайте должны найтись ссылки, ведущие на вредоносные файлы. При этом ссылки могут вести как на по настоящему вредоносные файлы, так и на какой-нибудь безобидный crack для игр, добавленный в базы по просьбе издателя игр. Так же важно понимать, что для попадания под этот пункт совсем не обязательно самому размещать вредоносные ссылки. Вполне достаточно того, что ваш рекламный партнёр разместит на вашем сайте не баннер «Скидки в Steam до -70% успейте купить», а «Внимание! Ваш плагин Adobe Flash Player устарел! Чтобы избежать заражения вашего компьютера вирусами, перейдите по ссылке», и ссылку на какой — нибудь getabode.com/flashplayer. Этого будет вполне достаточно, чтобы попасть под раздачу. Поэтому разборчиво выбирайте рекламных партнёров, а ещё лучше, полностью откажитесь от размещения рекламы на сайте. Майнеры. Пункт, достойный отдельного упоминания. Не смотря на отсутствие явной угрозы для пользователей, майнеры часто попадают в базы антивирусов и могут вызвать бан в поисковых системах как «угрожающие пользователю». Что такое майнер? Это в принципе безобидное ПО, которое просто проводит определённые вычисления, необходимые для осуществления транзакций, и затем отправляет результаты этих вычислений на сервер. Данные пользователей при этом не компрометируются, безопасность системы не страдает. Просто компьютер пользователя расходует его электроэнергию и использует его процессор и/или видеокарту в чужих интересах. Ну, и ещё майнер может вызывать «тормоза». За последние два пункта (расход системных ресурсов+электроэнергии, и тормоза) майнеры часто попадают под прицел антивирусов. Вреда они обычно не приносят. Вот только многие ли пользователи читают предупреждения антивируса? Крайне сомнительно. Скорее всего они, увидев предупреждение, просто закроют сайт/программу не разбираясь. Официальная позиция поисковиков по поводу майнеров не озвучена, но есть основания полагать, что они непосредственно влияют на траст сайта, в случае своего обнаружения понижая его. Кроме того, есть шанс ошибочного срабатывания защиты от вирусов, когда поисковик, не распознав результат анализа сайта антивирусом, просто добавит его в список опасных пользователю на основании того, что антивирус на что-то всё же отреагировал.

Размещение сайта на платном хостинге/выделенном сервере, использование доменного имени 2-го уровня, отказ от использования автоконструкторов сайта.

У всех этих пунктов есть одна общая черта — их объединяет то, что все они приводят к потери доверия к сайту (траста), и, как следствие, понижают сайт в выдаче. Размещение сайта на платном хостинге. Само по себе размещение сайта на бесплатном хостинге подразумевает, что у владельца нет денег на нормальный хостинг, как вариант — сайт не настолько ценен, чтобы тратить на него хоть какие-то деньги. Что, конечно же, не добавляет ему базового доверия. Так же создание на бесплатном хостинге линкопомойки или дорвея в прошлом было первым (а, по некоторым данным, до сих пор остаётся), что делает в целях раскрутки своего сайта новичок (классика — школьник, хорошо освоивший курс информатики, и собравшийся поступать в ВУЗ на программиста, или только поступивший студент), сумевший осилить самоучители по HTML и PHP, а теперь ищущий способ поднять в рейтинге поисковых систем своё творение. К тому же, создание сайта на бесплатном хостинге в основном сопровождается нарушением нижележащих пунктов. Доменное имя 2-го уровня. Является наиболее предпочтительным вариантом доменного имени. Доменное имя 2-го уровня (вида site.ru) обычно свидетельствует о том, что сайт содержится хоть сколько-нибудь серьёзной организацией, которой хотя бы хватило денег на домен. Так же использование доменных имён 3-го уровня (mysite.narod.ru, mysite.h16.ru, mysite.ucoz.ru и т. д.) часто является первым признаком импользования бесплатного хостинга. Использование поддоменов собственного домена 2-го уровня. Обычно подразумевает, что на поддоменах находится второстепенная информация, не несущая самостоятельной ценности, и предоставляющая интерес лишь в связке с основным доменом. Впрочем, не всегда домены 3-го уровня — зло. Так, например, тематические домены национальных зон являются вполне достойным выбором — даже Google не гнушается их использовать (google.com.ua). Но, если вы точно не уверены, что данная доменная зона является достаточно уважаемой в глазах поисковых систем — лучше её не выбирайте. Автоконструкторы сайтов. Ещё один спутник сайта, сделанного школьником или лицом, у которого нет ни навыков, ни денег, чтобы нанять того, у кого эти навыки есть. Их использование является первым признаком некачественно сделанного сайта, и они так же часто создают откровенно неоптимальные, раздутые страницы, корректно отображаемые только в том расширении экрана, которое было у их создателя, и имеют совершенно невнятную вёрстку, изобилующую лишними контейнерами, дублированием кода и т. д., чем и создали себе ужасную репутацию, и заслужили санкции поисковых систем за сам факт их использования. И, даже если конкретно в вашем случае всё не так, то ваш сайт всё равно может попасть под понижение выдачи «за компанию». Поэтому лучше откажитесь от таких инструментов. В случае, если ваши навыки и бюджет не позволяют создать сайт «в блокноте», то достойным вариантом будет воспользоваться CMS Wordpress - это простая, но достаточно продвинутая и поддающаяся модификации система управления сайтами, под которой работает около 29% сайтов, включая такие компании, как Mercedes-Bents, The New York Times и Reuters. Конечно, крайне сомнительно, что они используют Wordpress в «базовой» поставке, без плагинов и с стандартными темами, но в качестве «старта» сойдёт и «чистый» Wordpress, который в ходе развития может обрасти необходимыми плагинами и персонализированными темами.