Давайте просто порассуждаем.
Попробуем оценить поведение робота. Кликандер - это в первую очередь, незапрашиваемая реклама (открывающаяся без желяния пользователя).
Робот (пусть это будет Яндекс или гугл) заходит на ваш сайт, на главную страницу допустим. Для примера, пусть поисковикам запрещён код кликандера к индексированию, с помощью ноиндекс, нофоллов, джавы, домена третьего уровня.
Далее, он переходит по ссылкам на странице (меню, внутренние ссылки). Несмотря на запрет к индексации, мы изначально не может запретить вывод рекламы для робота после 2-3 перехода по страницам сайта. То есть, робот уже учитывает вывод незапрощенного окна. Это означает, что робот просто идёт по страницам, учитывая факт незапрощенного открытия внешних страниц "чужих" сайтов.
По моему мнению, пессимизация за кликандер - это какое-то соотношение плюсов вашего сайта (поведенческие факторы, посещаемость, качество внешних ссылок и их количество) к минусам вашего сайта (незапрашиваемая реклама, множество внешних ссылок со страниц вашего сайта, переоптимизация и т.д..)
То-есть, пессимизация за кликандер может быть минимальна (в случае, если ваш сайт СДЛ), либо максимальна - бан или АГС (в случае, если ваш сайт является ГС).
Это лишь теория, но стоит задуматься, представив себя роботом ПС (с учётом возможностей программирования, которое уж точно, автоматически определяет незапращиваемую рекламу) и пользователя (который уж точно не хотел узнать те "новости", которые обычно он видит при заходе на сайт, на котором, при клике - появляется кликандер в активном окне).