En gros le chaînon manquant c'est la norme pas l'exception, et dans ce contexte dur de prétendre que les différents arbres généalogiques remontant à 100/200/300 millions qu'on peut voir ici et là ne sont pas au moins en partie des vues d'artistes plutôt que des vrais schémas scientifiques.
Là j'ignore de quoi tu parles exactement. Mais concernant l'origine des oiseaux on parle d'une théorie qui s'appuie non pas sur de simples vues d'artistes mais sur des données scientifiquement solides.
non moi je crois qu'on a encore du mal à cerner le processus exact de l'évolution, particulièrement quand l'espèce considérée (et ses cousins) semblent changer assez rapidement.
il y a deux concepts en théorie de l'évolution : il y a le concept d'espèce (qui peut se reproduire ensemble), mais il y a aussi le concept de population évolutive : si l'on suivait cette population de génération en génération, on n'aurait aucun mal à discerner les individus qui en font partie (par exemples les sauropodes habitant telle vallée), et au cours des générations on verrait la population passer d'une espèce à l'autre, les individus n'étant au bout d'un certain nombre de génération plus aptes à se reproduire avec un de leurs ancêtres s'ils en croisaient un.
naïvement on pourrait se dire que le concept d'espèce et de lignée d'espèce semble assez facile à définir à partir d'un grand nombre de fossiles, on regarde les ressemblances notamment du squelette et en particulier les membres qui semblent présenter des modifications récentes et qui sont supposés jouer un rôle déterminant (par exemple la mâchoire des tyrannosauridés, les bras et les longs os creux des ancêtres des oiseaux, le cerveau des homo),
mais en fait il n'en est rien : parce qu'on oublie totalement la notion de population évolutive, et lorsqu'on tente de suivre réellement une population en particulier, en fait on n'arrive pas du tout à comprendre précisément ce qu'il se passe. on a l'impression que les populations ne font qu'aboutir à des cul-de-sacs évolutifs, suivis d'extinctions et de remplacements par une autre population évolutive cousine. l'exemple typique est bien sûr l'histoire de l'homo, et par exemple le remplacement de l'australopithèque par homo habilis, puis le remplacement de homo néandertal par homo sapiens,
c'est révélateur du principe même de l'étude de l'évolution des espèces uniquement du point de vue des lignées d'espèces et pas du tout des populations évolutives.
alors bien sûr, dans les grandes lignes ce n'est pas complètement faux de dire "on a trouvé un fossile qui ressemble beaucoup à l'intermédiaire entre un allosoridé et un oiseau, la datation du fossile colle, donc on va dire que c'est le chaînon manquant", mais c'est une énorme approximation parce qu'on résume ainsi souvent 10 millions d'années voire plus à un seul individu, qu'on a choisi "a posteriori" comme étant le moins différent du précédant et du suivant dans la lignée, mais ça peut entraîner des erreurs, des erreurs énormes, aussi bien de datation que de géographie, voire même on peut carrément se planter et associer un ancêtre à telle espèce alors qu'il n'en est rien (cf le débat qu'il y a eu un temps sur l'ancêtre des oiseaux au crétacé) surtout si on suppose (comme tu l'as fait) que l'évolution des espèces est avant tout un processus lent, alors qu'en fait on ne le sait pas vraiment ! si on suppose que l'évolution est un processus lent, évidemment qu'on va écarter des lignées tous les spécimens un peu trop différents, et on va ainsi renforcer notre idée que l'évolution est lente puisque la lignée semble évoluer très régulièrement de telle espèce à telle espèce, mais ça n'a rien de très rigoureux !
en traitement du signal il y a le théorème de Shannon, il permet de relier la perte d'information entraînée par l'échantillonnage d'une fonction à la rapidité des ses variations : si on échantillonne (qu'on ne regarde que toutes les secondes) une fonction f(t) alors que cette fonction oscille très rapidement, on va perdre énormément d'information. à l'inverse, si f(t) varie lentement, un échantillonnage ne perdra pas ou très peu d'information, et on sera même capable de reconstruire précisément la fonction à partir de valeurs échantillonnées (c'est ce qu'on fait avec le son numérique, ce sont des suites de nombres à partir desquels on reconstruit le signal audio d'origine en temps continu qu'on envoie enfin aux haut-parleurs). en général, pour illustrer le théorème de Shannon on montre que si on échantillonne toutes les 10ms un son à 10010Hz, donc un son extrêment aigu, on aura l'impression que c'est un son à 10Hz, donc extrêmement grave --> on a perdu de l'information parce que le taux d'échantillonnage est beaucoup trop faible par rapport aux variations de la fonction (un son aigu --> qui a une fréquence élevée --> qui varie très vite) .