Des robots qui génèrent du traffic
Votre site internet est tout neuf et tout beau, mais vous n'avez pas encore les sous pour vous offrir les services d'une compagnie publicitaire et faire connaitre votre site.
Il est simple pour vous d'amener du monde sur votre site en utilisant des robots.
Mais comment ça marche ?
Et bien il vous suffit de faire dans le langage que vous voulez un simple "bot" qui ira se promener sur des petits sites (il est important que ça soit des petits sites) votre bot simulera un user agent, pour apparaître dans les statistiques du site qu'il visitera et simulera votre site internet dans son referer (le referer est la provenance d'un visiteur).
Du coup la majorité des petits sites consultent leurs statistiques, et verront notre faux visiteur arriver dans leurs stats, ils verront également que ce visiteurs vient de votre site internet.
Curieux ils iront sur votre site pour voir si on ne parlerais pas d'eux dessus.
Voilà c'était ma petit astuce du jour ;)
Du coup si vous faites ça sur un bon millier de site, soyez prêt à recevoir du monde :p
Salut,
Très bonne idée mais, comment faire pour les sites qui utilise Google Analytics, car c’est du JS et par exemple la lib CURL ne l’interprétera pas. Donc pas de trace dans les stats… ?
Je t’invite à t’intéresser aux WebExtension ;)
Tu peux aisément en Javascript, créer un petit plugin, qui naviguera alors de site en site ou directement forger tes requêtes avec un « onBeforeRequest » qui mettra systématiquement ton site en referer.
Les extension…., ça casse la tête ! Mais bon je vais tenter.
Je partage quand même mon ptit script PHP à lancer en CLI.
On met un liste de mots dans un fichier txt.
Il fait un recherche via la fameuse API de Qwant.
il récupère les 30 resultats pour chaque mot, à partir du 20ème;
il visite chaque site avec CURL..
status == « success »)
browse($ch, $result->data->result->items);
else
print « $result->status $result->error »;
}
curl_close($ch);
exit();
function search($ch, $url) {
curl_setopt($ch, CURLOPT_URL, $url);
$json = curl_exec($ch);
if($error = curl_error($ch))
return $error;
return json_decode($json);
}
function browse($ch, $urls) {
global $count;
foreach ($urls as $k => $item) {
curl_setopt($ch, CURLOPT_URL, $item->url);
curl_exec($ch);
$code = curl_getinfo($ch, CURLINFO_HTTP_CODE);
print « (« .$count. ») : [« .$code. »] -> « .$item->url. »\n »;
$count++;
}
}
Désolé l’indentation à sautée…
Super initiative Guillaume
Tiens c’est pour toi, cadeau :
https://dyrk.org/2016/07/22/chrome-generez-des-visites-via-votre-referer/
Tout frais de ce matin (tu m’as inspiré, j’ai traité ton commentaire vers 2h30 du matin)
Ps : Petite remarque, si tu partages du code, ajoutes quelques commentaires.
Même si le code est court et que le nom des fonction est explicite, d’autant qu’il doit manquer un bout non ?
hmmmm html_entities…. qui casse mon code lol, tu peux supprimer mes autres commenaitres si tu veux…
/* debut du code PHP */
$api = ‘https://api.qwant.com/egp/search/web?count=30&offset=20&q=’;
$words = file(__DIR__.DIRECTORY_SEPARATOR. »words.txt »);
$count = 1;
$ch = curl_init();
curl_setopt($ch, CURLOPT_ENCODING, « »);
curl_setopt($ch, CURLOPT_USERAGENT, « Mozilla/5.0 (Windows; U; Windows NT 5.1; rv:1.7.3) Gecko/20041001 Firefox/0.10.1 »);
curl_setopt($ch, CURLOPT_FOLLOWLOCATION, true);
curl_setopt($ch, CURLOPT_SSL_VERIFYPEER, false);
curl_setopt($ch, CURLOPT_REFERER, « http://devajax.fr »);
curl_setopt($ch, CURLOPT_MAXREDIRS, 10);
curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1);
foreach($words as $word) {
$result = search($ch, $api.trim($word));
if (!is_object($result))
die($result);
if ($result->status == « success »)
browse($ch, $result->data->result->items);
else
print « $result->status $result->error »;
}
curl_close($ch);
exit();
function search($ch, $url) {
curl_setopt($ch, CURLOPT_URL, $url);
$json = curl_exec($ch);
if($error = curl_error($ch))
return $error;
return json_decode($json);
}
function browse($ch, $urls) {
global $count;
foreach ($urls as $k => $item) {
curl_setopt($ch, CURLOPT_URL, $item->url);
curl_exec($ch);
$code = curl_getinfo($ch, CURLINFO_HTTP_CODE);
print « (« .$count. ») : [« .$code. »] -> « .$item->url. »\n »;
$count++;
}
}
/* fin du code PHP */
aaaah beaucoup mieux ;)
Petite recommandation perso :
===========================
* Random du user agent
* En referer ne met pas la racine de ton site, mais plutôt des pages, certains webmasters sont curieux mais pas stupide, ils se douteront bien que tu n’iras pas mettre un lien à la racine de ton site ;)
Mais qu’éventuellement, ils pourraient être cités sur telle ou telle page ^^
Merci pour les ptits conseils ^^