Nouveau projet web: est ce que google peut pénaliser ce site

  • Auteur de la discussion Auteur de la discussion patchak
  • Date de début Date de début
Nouveau WRInaute
Bonjour,

J'ai l'intention de lancer un nouveau portail en français prochainement qui utilise très fortemnet les API de Yahoo, Alexa de Google et de Amazon...

L'idée va être de créer un espèce de moteur de recherche "vertical" dont l'objectif sera de rassembler plusieurs sources d,informations qui sont à différents endroits et de les centraliser à un seul en droit (après les avoir réorganisés à mon gôut à moi). Donc l'idée n'est pas de "copier' les résultats e Yahoo par exemple et de simplement les republier sur le site, mais plutôt de croiser les données avec d'autres sources, afin de créer des pages uniques...

Je sais pas si vous etes au courant, mais depuis l'update Bourbon, tout le monde sur WMW parle de 'duplicate content', c'est à dire contenu dédoublé ou copié...


Malgré que moi je trouve que mon projet ne comporte pas de copie en tant que tel, j,aimerais avoir l'avis de la communauté sur le danger potentiel qu'un tel site se fasse identifier comme copieur de contenu par google. (Étant donné que je prends le contenu des API, il n'est pas unique... ce qui est unique c'est la façon de le réorganiser, de le mélanger et de le présenter aux usager...

QU'en penses vous?

Merci

patchak
 
WRInaute impliqué
moi je fais le contenu de mon site en prenant des mots qui existent : ils sont dans le dictionnaire...
des tas de gens utilisent aussi les mêmes mots, sans risque ;-)

google ne peut pas de toutes façon connaitre les résultats de yahoo !
 
Nouveau WRInaute
Google ne peut pas reconnaître le contenu de yahoo si le contenu de yahoo est mélangé et présenté d'une façon qui n'est pas comme yahoo les présente, ça je pense que je suis d'accord...

Mais par contre si quelqu'un va seulement republier les pages de résultat Yahoo sans rien changer, la je pense que google peut certainement trouver que c'est du duplicate content...

Est ce que d'autres personnes ont des avis sur la question?

Selon vous est ce qu'une page qui est construite avec des feeds, rss, et différents API réorganisés peut être considérée commu unique?

Merci
 
WRInaute impliqué
désolé, les moteurs de recherche interdisent aux autres robots l'accès à leurs pages de résultats !
arrêtez moi si je me trompe, mais sinon, ce serait encore plus facile de faire des mégas annuaires !
 
Nouveau WRInaute
hummm

Ouais peut-être qu'ils interdisent l,accès aux SERPS, mais je suis pas certain, mais en tout cas Google crawle pas mal le directory de Yahoo... Mais en tout cas c'est pas le point... malgré que je comprends pouruqoi tu dis ça...

Donc selon toi mon projet serait "safe" par rapport a google en considérant que 1) je prends du contenu de différentes sources et 2) je le réorganise à ma manière donc théoriquement aucune page ne sera identique à la mienne?

Je suis si parano a ce sujet parce que dans les forums anglophones on semble plutot dire que des qu'une page a un certain % de contenu qui vient d'ailleurs cela peut génerer des problèmes....


Un autre exemple:

Si j,ai une page et que tout ce qu'il y a sur cette page c'est des feeds RSS de différentes sources et des entrées de blog en syndication.. est ce que vous trouvez que c'est du dup content?

Merci encore pour les réponses... dit donc il y a de l'action ici le dimanche soir ;)

Patchak
 
WRInaute impliqué
est-ce qu'un annuaire est du duplicate content ?

je ne crois pas, pourtant, il référence des contenus qui sont aussi sur d'autres annuaires...

je pense quand même qu'au delà d'un certain pourcentage (que je ne connais pas) deux pages sont classées comme similaires par google, ce qui n'est pas du duplicate content qui signifie plutôt deux points d'entrées (urls) différents pour les mêmes données.

je persiste à dire que le moteur google n'est pas autorisé à lire et indexer les pages de résultats du moteur yahoo : il faudrait qu'il puisse requêter dans le formulaire de recherche !!!

c'est peut-être une vision simpliste, si d'autres ne sont pas du même avis, qu'ils disent leurs arguments...
 
Nouveau WRInaute
luxe-campagne

Un annuaire est pas du duplicate content.. sauf s'Il réutilise les memes descriptions que les autres sites.

Ex.. un clone de ODP qui est clairement un duplicate content...

Dans mon exemple de RSS le contenu de change pas en tant que tel, il est simplement organisé d'une nouvelle manière.. la page qui résulte de cette réorganisation est nouvelle (originale) mais le contenu, lui ne l'est pas.

Pour ce qui est des deux pages qui sont semblables, il y a des bonnes chances que quand google trouve deux pages qu'il considère semblable il en mette un direct dans le supplemental index.


Pour ce qui est du crawl de yahoo par google je n'ai aucune idée... ;)

qq'un d'autre a des opinions sur ma question originale?

patchak
 
Nouveau WRInaute
salut pachak moi je ne peut pas taider vu que je suis novice en la matiere
mais je voudrais te demander quelques chose
je voudrais faire un site comme kelkoo cxest a dire une page de rechercvhe des occasions et des affaires interessan,tes sur les principaux sites de ventes (ebay, amazon, fnac, internity ...etc) et presenter les resultat a ma maniere en donnant le lien direct sur ces pages
j'ai un nom de domaine www.brocanterie.com non hébérgé je lai en parcking sur sedo et deja ya en moyenne selon ovh 150 personnes qui le visitent chaque mois (je pense que cest une bonne moyenne pour des visiteurs spontanés c'est a dire ya pas de site et le nom nest pas référéencé) alors si vous pouviez maider
 
Nouveau WRInaute
humm kamail,

no offense, mais pour le moment j'aimerais garder la discussion sur le sujet original ;)

merci
 
WRInaute impliqué
patchak a dit:
luxe-campagne

Un annuaire est pas du duplicate content.. sauf s'Il réutilise les memes descriptions que les autres sites.

Ex.. un clone de ODP qui est clairement un duplicate content...

Dans mon exemple de RSS le contenu de change pas en tant que tel, il est simplement organisé d'une nouvelle manière.. la page qui résulte de cette réorganisation est nouvelle (originale) mais le contenu, lui ne l'est pas.

Pour ce qui est des deux pages qui sont semblables, il y a des bonnes chances que quand google trouve deux pages qu'il considère semblable il en mette un direct dans le supplemental index.


Pour ce qui est du crawl de yahoo par google je n'ai aucune idée... ;)

qq'un d'autre a des opinions sur ma question originale?

patchak

je ne parlais pas de odp mais du fait que tu veux faire une sorte d'annuaire des fils rss et syndication de blogs, c'est un peu le même principe non ?
 
Nouveau WRInaute
re salut..

Je ne veux pas faire un annuaire, en fait je veux générer chaque page à partir du mélange de 5 ou 6 API différentes, qui, mises en commun, vont faire une page originale.

Je ne sais pas si tu comprends bien ce que j'essaie de faire...
 
Nouveau WRInaute
hehe ok..

Ben j'essaie d'expliquer mon projet encore une fois, d'ailleurs j'invite les autres membres a venir donner leur opinion sur le sujet aussi pour se joindre à notre dialogue!

Voila...

Admettons que je veux faire un site sur le cinéma.

Mon idée est de prendre

1) l'API de Yahoo pour construire un engin de recherche ( yahoo permets de construire des mini engins basés sur 30 sites que l'on veut crawler

2) l'API de yahoo images pour insérer des images (photos)

3) l'API de AMAZON et de ALEXA pour intégrer dans les résultats: amazon pour intégrer de la pub ciblée selon la requête et l'API de Alexa permets aussi de créer des engins de recherche ciblés par thématique (reviews, commentaires, etc...)

Admettons que je veuille créer des pages avec ça..

Je fais une page sur le seigneur des anneaux.

Le système me sort les pages qui ont rapport au seigneur des anneaux seulement a partir des sites que j'ai spécifié dans l'API de Yahoo + les images reliés au film avec l'API images et aussi les prix sur les DVD et les livres avec l'API AMAZON, et finalement, avec l'API Alexa, il me sort les sites qui contiennent des forums (exemple) sur le seigneur des anneaux.


Si tu mets tout ça ensemble, ça fait une page originale non?

Mais le contenu existait deja un peu partout sur le net, avant que je ne le rassemble...
C'est ça ma question,

Est ce que les membres de ce forum trouvent que cette stratégie est un plan viable pour un site?

Merci de vos commentaires
 
WRInaute occasionnel
Si je comprends bien tu veux faire ce qu'on appelle un "mashup" en anglais, et qui est tres populaire en ce moment. Par exemple Rollyo.com utilise l'API de yahoo pr faire des mini moteurs de recherche, ou encore les sites d'immo qui utilisent l'API google maps pour presenter leurs resultats sur une carte.

A mon avis, pas de soucis pour le duplicate content, du moment que ta presentation est originale - qui plus est pr ce type de site ce qui compte c'est la valeur ajoutee, et la meilleure promo vient du bouche a oreille, pas du referencement a mon avis...
 
Nouveau WRInaute
lesbonsplansdesophie:

Merci pour ce commentaire...

Tu vois ce qui mInquiète surtout c'est que l'absence de contenu unique et nouveau ne me pénalise au yeux des engins de recherche...

Mais je comprends que le nouveau contenu généré de ce mashup sera du nouveau contenu original, mais n'empêche qu'il ne comporterera rien de "neuf'...

Tu me suis?
 
Discussions similaires
Haut