Наша команда расширяет сферу деятельности и мы ищем новых людей.
- Ты хорошо владеешь одним из языков программирования: Python, Java, JavaScript, C++, Perl
- Умеешь работать с данными: json, Sql (Mysql, Postgre), nosql (Mongo)
- Ты можешь написать парсер (html, ajax, local files)
- Хорошо знаком с регулярными выражениями
Мы высоко ценим профессионализм, даем интересные задачи и хорошо платим за их выполнение.
Но мы не благотворительный фонд и вовсе не обещаем, что все будет легко.
Просим вас указать не только уже имеющийся опыт, но и то, чем бы вы хотели заниматься в будущем.
Преимуществом также будет:
- Знание английского;
- Навыки работы с графами, графовыми базами данных;
- Опыт создания API, backend разработка;
- Машинное обучение, работа с большими данными, ETL;
- Опыт работы с apache lucene, elasticsearch, kibana;
- Опыт визуализации данных - построение графиков, гео-карт.
Основные задачи:
- написание парсеров для интернет ресурсов (соц. сети, сервисы, неофициальные апи)
- обработка и структурирование информации, выявление связей между данными
- обогащение и нормализация данных, загрузка в единое хранилище
- поиск и валидация данных
Возможна удаленная работа.
Уровень заработной платы обсуждается с успешными кандидатами.
Если ты готов работать на результат, присылай резюме на data_science_job@protonmail.com
- Ты хорошо владеешь одним из языков программирования: Python, Java, JavaScript, C++, Perl
- Умеешь работать с данными: json, Sql (Mysql, Postgre), nosql (Mongo)
- Ты можешь написать парсер (html, ajax, local files)
- Хорошо знаком с регулярными выражениями
Мы высоко ценим профессионализм, даем интересные задачи и хорошо платим за их выполнение.
Но мы не благотворительный фонд и вовсе не обещаем, что все будет легко.
Просим вас указать не только уже имеющийся опыт, но и то, чем бы вы хотели заниматься в будущем.
Преимуществом также будет:
- Знание английского;
- Навыки работы с графами, графовыми базами данных;
- Опыт создания API, backend разработка;
- Машинное обучение, работа с большими данными, ETL;
- Опыт работы с apache lucene, elasticsearch, kibana;
- Опыт визуализации данных - построение графиков, гео-карт.
Основные задачи:
- написание парсеров для интернет ресурсов (соц. сети, сервисы, неофициальные апи)
- обработка и структурирование информации, выявление связей между данными
- обогащение и нормализация данных, загрузка в единое хранилище
- поиск и валидация данных
Возможна удаленная работа.
Уровень заработной платы обсуждается с успешными кандидатами.
Если ты готов работать на результат, присылай резюме на data_science_job@protonmail.com