[Linkedin] – Collecter tous les profils d’une recherche

 

Linkedin, Viadeo et d'autres encore, sont aujourd'hui les premiers outils utilisés par les recruteurs pour trouver des profils intéressants.

J'ai donc pris le temps suite à quelques demandes d'internautes et une anecdote personnelle récente, de vous développer un petit script qui vous permettra de télécharger sur votre ordinateur, tous les profils d'une recherche !
Sous la forme de données exploitables et manipulables !

 


 

Comment ça marche ? (Néophytes et non Néophytes)

 

Ce script est téléchargeable ici : linkedinMassiveCrawler

Pour ce faire il suffit de vous rendre sur la page de recherche de personne Linkedin :
https://www.linkedin.com/search/results/people/

 

Faites une recherche dessus.

 

Ensuite, il vous faudra ouvrir la console développeur (touche F12 de votre clavier, petit onglet "console) et copier le contenu du script dedans.
Enfin il vous faudra valider avec la touche entrée.

 

Le script va alors parcourir tous les résultats de votre recherche, consultera chaque profil, et fera également défiler chaque page de la recherche.
Chaque action sera espacée par un court délai de 2 secondes, Linkedin n'aimant pas trop les crawlers, celui-ci  reconnaître facilement une activité anormale ... au hasard, lorsque 200 profils sont consultés en moins d'une minute ^^

Au bout de quelques minutes (selon la taille de la recherche ...)
Votre navigateur vous demandera s'il a le droit de télécharger sur votre ordinateur plusieurs fichiers .... il vous faudra bien sur accepter !

Chacun des fichiers téléchargés contiendra l'expérience et les formations des utilisateurs au format JSON.
Si vous n'êtes pas développeurs et que vous ne savez pas trop exploiter cela, il vous faudra copier coller le contenu de ce fichier dans des outils comme celui-ci :
http://jsbeautifier.org/

Ces données, lorsqu'elles sont correctement indentées, sont très facilement lisibles

Vous pourrez ensuite consulter tranquillement en étant hors-ligne (par exemple dans un train) des profils intéressants !

Et éventuellement les passer dans des moulinettes intelligentes (si vous avez sous la main des développeurs) pour rendre plus pertinentes ces données :)

 

 


 

Techniquement

 

Les liens vers les profils

Récupération de tous les liens d'une page de recherche :

document.getElementsByTagName('a')

Vérification de la légitimité d'un lien 

L'url d'un profil est construite comme ça : linkedin.com/in/nom-prenom-identifiant/
Il suffit donc de vérifier si les liens de la page rentrent dans ce cas

/linkedin\.com\/in\/([A-Za-z0-9^_\-]{0,30})\/.*?/.exec(lien_de_la_page)

Extraction des données d'une page Linkedin

Lorsque vous regardez le code source d'une page de profile linkedin vous remarquez tout un tas de balise de ce genre là :

<code style="display: none" id="bpr-guid-1060784">
{&quot;data&quot;:{&quot;companies&quot;:[],&quot;$deletedFields&quot;:[&quot;paidProducts&quot;,&quot;postJobsEnabled&quot;],&quot;memberGroup&quot;:&quot;FREE&quot;,&quot;$type&quot;:&quot;com.linkedin.voyager.common.Nav&quot;,&quot;$id&quot;:&quot;M8x5UY0Zt6eGdBCiy+iKhA&#61;&#61;,root&quot;},&quot;included&quot;:[]}
</code>

De prime abord, on remarque clairement qu'il s'agit là de données au format JSON.
Celles-ci sont altérées par des caractères HTML (Ex : &quot;)
Il nous faudra alors transformer ce beau tas de m*** en données exploitables.

donnees_encodees = "{&quot;data&quot;:{&quot;companies ...";
decodeur = document.createElement('textarea');
decodeur.innerHTML = donnees_encodees;
donnees_decodees    =  decodeur.value;

Les données, une fois "décodées", devraient ensuite ressembler à ça :

{"data":{"companies":[],"$deletedFields":["paidProducts","postJobsEnabled"],"memberGroup":"FREE","$type":"com.linkedin.voyager.common.Nav","$id":"M8x5UY0Zt6eGdBCiy+iKhA==,root"},"included":[]}

Ahah, on est d'accord, c'est bien plus lisible !
la donnée qui nous intéresse c'est "included", celle-ci contient un tableau.
Il vous faudra parcourir chaque élément "<code>" pour parcourir la partie included

 

En parcourant "included", vous aurez un certain nombre d'éléments ...
Il vous suffira de ne conserver, que ceux qui contiennent "title" ou "schoolName".

Passez à la page suivante de la recherche 

Sur chaque page de recherche, vous trouverez en bas un bouton "suivant"

Sauf, lorsqu'il n'y a plus de résultat.
Il suffit donc de vérifier que le bouton est là :

if (document.getElementsByClassName('next-text')[0])
// Le bouton est présent 
else
//Le bouton n'est plus présent

Si le bouton est présent, il pourra alors charger la page suivante en cliquant dessus

document.getElementsByClassName('next-text')[0].click();


Conclusion

 

Voilà les amis, vous êtes prêt pour devenir des usines à collecter les données :p

 

Attention :
encore une fois, il s'agit là d'un "hack", il est possible que Linkedin corrige et qu'un jour cela ne fonctionne plus.

 

Pour ma petite communauté que j'aime tant :
Beaucoup d'entre vous ont remarqué que je n'écrivais plus beaucoup ces dernières semaines.
Peu d'entre vous le savent, mais il n'y a qu'une personne derrière ce blog "perso", car oui, malgré la quantité d'articles je ne suis pas blogueur professionnel, je n'affiche même pas de publicité.
Il m'arrive parfois d'avoir la page blanche, soit parce que j'ai une période personnelle qui s'y prête et que je n'ai pas l'âme à écrire, soit tout simplement parce que je n'ai pas de sujet en tête.
Sachant que j'essaie au mieux de trouver des petites choses à écrire, qui ne sont pas en copier-coller 15.000 fois sur l'internet ;)

En tout cas je souhaite vous remercier de votre fidélité et de vos petits messages soucieux de la santé du blog. Merci à tous !

Voilà, sinon je serais présent au DevFest durant les 2 jours, si jamais ça vous branche de se prendre un verre là-bas : https://devfest.gdgnantes.com/

7 comments

  • Énorme ? au top je test sans regarder !!!

  • Super ! Content que tu sois toujours en vie ;)
    Si tu as besoin d’un coup de main pour quoi que ce soit en informatique (bien que je ne soit pas à ton niveau xD ), je suis là ;)

    Un petit hack comme celui làà est toujours utile à garder sous le coude :)

    @+

  • Je vois très bien le choix du JS pour ce genre de scrapper mais il m’aurait semblé plus judicieux de partir sur un script Python qui automatise le tout. Après, ce petit hack reste tout de même appréciable, mais aucun doute que le ban ou la suspension de compte planera au dessus de votre compte si vous en abusez (LinkedIn repère plutôt bien les comportements automatisés mais embête très peu les comptes Premium à ce sujet).
    Je vais essayer de l’améliorer en le reprenant en Python, avec une récupération des CV / docs lorsque dispo sur le profil.

    Encore merci à toi pour ces articles et la qualité générale de tes publications.

    • Hello ! Je reviens sur ton article après avoir bien avancé de mon côté en Python !

      Petites améliorations qui sont possibles :
      – Il y a une section contact sur chaque profil, avec un bouton voir plus (à droite en haut), en cliquant dessus on affiche les infos de contact type adresse mail, téléphone, site web lorsqu’elles sont dispos
      – Dans le champ included, on peut s’intéresser à la clé sourceUrl qui contient des références externes vers des liens, menant souvent à des docs . Suffit de grep ‘CV’, ‘resume’ dans le titre de la webpage pour savoir que c’est un CV et l’enregistrer en pdf.
      – Dans la search url, n’hésitez pas à rajouter des champs comme ?companyName=SNC par exemple pour affiner les résultats, plus besoin d’être premium pour avoir les filtres si on cherche bien.

      Si vous automatiser le tout en Python, choisissez un module qui gère les contenus dynamiques. Perso, je suis parti sur du selenium + PhantomJS.
      Sur LinkedIn en particulier, n’oublier pas de scroller tout en bas des pages pour générer tout le contenu !

  • salut
    je viens de tester le script j’en ai besoin dans le cadre d’un projet fin d’année (anciens élèves universitaire).
    j’ai cette erreur:
    [Violation] Forced reflow while executing JavaScript took 43ms
    [Violation] Forced reflow while executing JavaScript took 51ms
    2[Violation] Forced reflow while executing JavaScript took 44ms
    [Violation] Forced reflow while executing JavaScript took 46ms
    [Violation] Forced reflow while executing JavaScript took 47ms
    [Violation] Forced reflow while executing JavaScript took 46ms
    [Violation] Forced reflow while executing JavaScript took 42ms
    [Violation] Forced reflow while executing JavaScript took 40ms
    [Violation] Forced reflow while executing JavaScript took 42ms
    [Violation] Forced reflow while executing JavaScript took 40ms
    [Violation] Forced reflow while executing JavaScript took 39ms
    me rend la main sans executer le scan de ma liste.

    auriez vous une solution.
    Merci d’avance

  • Salut,
    tel quel il fonctionne pas de mon coté (FireFox) mais j’ai pas creusé, est ce que ça fonctionne encore pour les autres ?
    Merci en tout cas pour tes articles, c’est cool.

  • bonjour, j’ai essayé mais j’ai été détectée par Linkedin et bloquée. Et surtout, cela ne m’a pas proposé de télécharger des fichiers sur l’ordinateur… bizarre. Ai-je raté une étape après le F12, collage du script , entrée?

    merci

Répondre à Rak Annuler la réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site est protégé par reCAPTCHA et le GooglePolitique de confidentialité etConditions d'utilisation appliquer.