Intéressant

Quand est apparue la mesure du temps moderne et qui l'a inventée ?

Quand est apparue la mesure du temps moderne et qui l'a inventée ?



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Mon fils m'a demandé comment les gens savaient qu'une heure était une heure avant d'inventer l'horloge. En lisant l'histoire des appareils de chronométrage sur Wikipedia et aussi l'heure, il est devenu évident pour moi qu'il y avait des heures de durée différente dans l'histoire jusqu'à ce qu'une « horloge actuelle plus précise » soit inventée.

Si je devais deviner, les premières tentatives n'auraient pas donné la mesure moderne de l'heure de toute façon, il y a sûrement eu quelques itérations jusqu'à ce que nous nous fixions sur l'heure telle que nous la connaissons.

J'aimerais donc savoir quand les gens ont commencé à utiliser l'heure moderne, et comment ils sont arrivés à cette définition exacte de l'heure, et qui étaient les personnes clés pour que cela se produise (si elles sont connues).

Si aucune réponse précise ne peut être donnée, je me contenterai de plages de dates.


Cela s'est produit progressivement et aucune personne ou date spécifique ne peut être indiquée. Les anciens divisaient le jour en parts égales et la nuit en parts égales. Les heures de jour et de nuit étaient donc inégales. Bien sûr, ils s'en sont rendu compte. Pour mesurer le temps dans le monde antique, il y avait des cadrans solaires et des horloges à eau. À l'époque hellénistique, il y avait des horloges à eau sophistiquées indiquant des heures inégales le jour et la nuit. Avec l'invention des horloges mécaniques, les gens ont progressivement commencé à mesurer le temps à l'aide d'horloges mécaniques, mais c'était un processus lent. Ils ont commencé à se répandre au 14ème siècle, et les premiers étaient des horloges de tour dans les villes. Je suppose que dans les villages, les gens utilisaient encore le soleil et des heures inégales. Le standard des horloges était basé sur les révolutions du Soleil (une révolution complète = 24 heures).

Cependant, les astronomes ont réalisé il y a très longtemps (dans les temps anciens) que les révolutions du Soleil ne sont pas non plus égales : même si vous divisez le jour + la nuit (une révolution complète du Soleil) en parties égales, ces heures seront inégales à cause de l'équation de temps (voir « équation du temps » dans Wikipédia). L'unité de temps devrait donc être basée sur les révolutions des étoiles, ce qui est plus uniforme.

Pour les personnes autres que les astronomes, cela n'a été clairement réalisé et décrit qu'au milieu du XVIIIe siècle, avec la publication et l'utilisation de l'Almanach nautique de Nevil Maskelyne. De nouveau, des tentatives ont été faites pour produire des horloges mécaniques sophistiquées qui montreraient le "vrai" temps solaire, c'est-à-dire des heures inégales. Ce n'est qu'avec la diffusion des montres de poche précises que les gens ont commencé à utiliser des "heures égales" définies astronomiquement, comme "l'heure solaire moyenne", c'est-à-dire que les révolutions du ciel étoilé ont été prises comme norme.

À la fin du XIXe siècle, les scientifiques ont réalisé que toutes les heures définies astronomiquement sont également légèrement inégales. C'est J.C. Maxwell qui a proposé le premier de fonder la définition des unités de temps sur des processus physiques (fréquence de certains rayonnements) au lieu de l'astronomie. Sa proposition a été adoptée au début du 20e siècle. Ainsi, la définition moderne de l'heure n'est pas du tout liée aux révolutions de la Terre, et l'heure est définie comme 3600 secondes, et la seconde, l'unité de temps fondamentale, est définie comme « la durée de 9 192 631 770 périodes de la rayonnement correspondant à la transition entre les deux niveaux hyperfins de l'état fondamental de l'atome de césium 133". Le raffinement final de cette définition, précisant les conditions dans lesquelles ce rayonnement doit être mesuré a été établi en 1999, si l'on souhaite une date.

Bien sûr, les corrections apportées au 20ème siècle sont trop petites pour concerner notre vie quotidienne. Donc, pour l'heure utilisée dans la vie quotidienne, la norme est une montre, et elle s'est répandue lentement avec la diffusion de montres bon marché au début du 20e siècle.

Le processus décrit peut être résumé comme suit : les gens utilisent un processus naturel que l'on pense uniforme pour mesurer le temps. Avec le développement des connaissances, ils découvrent que le processus en face n'est pas exactement uniforme. Ils découvrent un nouveau procédé, qui est d'abord utilisé par les scientifiques, mais son utilisation s'étend ensuite progressivement. Et cette histoire se répète et dure aussi longtemps que dure notre civilisation.


Origines des mesures

Dans les temps anciens, le corps régnait lorsqu'il s'agissait de mesurer. La longueur d'un pied, la largeur d'un doigt et la distance d'un pas étaient toutes des mesures acceptées.

Pouce : Au début, un pouce était la largeur du pouce d'un homme. Au 14ème siècle, le roi Édouard II d'Angleterre a statué qu'un pouce équivaut à 3 grains d'orge placés bout à bout dans le sens de la longueur.

Main : Une main mesurait environ 5 pouces ou 5 chiffres (doigts). Aujourd'hui, une main mesure 4 pouces et sert à mesurer les chevaux (du sol au garrot ou à l'épaule du cheval).

Envergure : Une envergure était la longueur de la main tendue, environ 9 pouces.

Pied : Dans les temps anciens, le pied mesurait 11 1 /42 pouces. Aujourd'hui, il mesure 12 pouces, la longueur du pied d'un homme moyen.

Cour : Une cour était à l'origine la longueur d'une ceinture ou d'une ceinture d'homme, comme on l'appelait. Au 12ème siècle, le roi Henri Ier d'Angleterre a fixé la cour comme la distance de son nez au pouce de son bras tendu. Aujourd'hui, il est de 36 pouces.

Coudée : Dans l'Egypte ancienne, une coudée était la distance entre le coude et le bout des doigts. Aujourd'hui, une coudée est d'environ 18 pouces.

Lick: Un Lick était utilisé par les Grecs pour mesurer la distance entre le bout du pouce et le bout de l'index.

Rythme : Les anciens soldats romains marchaient au pas, qui était la longueur d'un double pas, environ 5 pieds 1 000 pas était un mile. Aujourd'hui, un pas est la longueur d'un pas, 2 1/2 à 3 pieds.


Instruments et systèmes de mesure

En général, les systèmes de mesure comprennent un certain nombre d'éléments fonctionnels. Un élément est nécessaire pour discriminer l'objet et détecter ses dimensions ou sa fréquence. Ces informations sont ensuite transmises dans tout le système par des signaux physiques. Si l'objet est lui-même actif, comme un écoulement d'eau, il peut alimenter le signal s'il est passif, il doit déclencher le signal par interaction soit avec une sonde énergétique, comme une source lumineuse ou un tube à rayons X, soit avec un signal porteur. Finalement, le signal physique est comparé à un signal de référence de quantité connue qui a été subdivisé ou multiplié pour s'adapter à la plage de mesure requise. Le signal de référence est dérivé d'objets de quantité connue par un processus appelé étalonnage. La comparaison peut être un processus analogique dans lequel des signaux dans une dimension continue sont amenés à égalité. Un autre processus de comparaison est la quantification par comptage, c'est-à-dire en divisant le signal en parties de taille égale et connue et en additionnant le nombre de parties.

D'autres fonctions des systèmes de mesure facilitent le processus de base décrit ci-dessus. L'amplification garantit que le signal physique est suffisamment fort pour terminer la mesure. Afin de réduire la dégradation de la mesure au fur et à mesure qu'elle progresse dans le système, le signal peut être converti sous forme codée ou numérique. Le grossissement, agrandissant le signal de mesure sans augmenter sa puissance, est souvent nécessaire pour faire correspondre la sortie d'un élément du système avec l'entrée d'un autre, par exemple en faisant correspondre la taille du compteur de lecture avec le pouvoir de discernement de l'œil humain.

Un type important de mesure est l'analyse de la résonance, ou la fréquence de variation au sein d'un système physique. Ceci est déterminé par l'analyse harmonique, généralement présentée dans le tri des signaux par un récepteur radio. Le calcul est un autre processus de mesure important, dans lequel les signaux de mesure sont manipulés mathématiquement, généralement par une forme d'ordinateur analogique ou numérique. Les ordinateurs peuvent également fournir une fonction de contrôle dans la surveillance des performances du système.

Les systèmes de mesure peuvent également comprendre des dispositifs de transmission de signaux sur de grandes distances (voir télémétrie). Tous les systèmes de mesure, même ceux hautement automatisés, incluent une méthode d'affichage du signal à un observateur. Les systèmes d'affichage visuel peuvent comprendre un graphique étalonné et un pointeur, un affichage intégré sur un tube à rayons cathodiques ou un affichage numérique. Les systèmes de mesure comprennent souvent des éléments d'enregistrement. Un type courant utilise un stylet d'écriture qui enregistre les mesures sur un graphique mobile. Les enregistreurs électriques peuvent inclure des dispositifs de lecture de rétroaction pour une plus grande précision.

La performance réelle des instruments de mesure est affectée par de nombreux facteurs externes et internes. Parmi les facteurs externes figurent le bruit et les interférences, qui ont tous deux tendance à masquer ou à déformer le signal de mesure. Les facteurs internes comprennent la linéarité, la résolution, la précision et l'exactitude, qui sont tous caractéristiques d'un instrument ou d'un système donné, et la réponse dynamique, la dérive et l'hystérésis, qui sont des effets produits dans le processus de mesure lui-même. La question générale de l'erreur de mesure soulève le sujet de la théorie de la mesure.


Contenu

Les civilisations anciennes ont observé des corps astronomiques, souvent le Soleil et la Lune, pour déterminer le temps. [1] Stonehenge est probablement un observatoire astronomique, utilisé pour les événements saisonniers et annuels tels que les équinoxes ou les solstices. [2] Comme les civilisations mégalithiques n'ont laissé aucune histoire enregistrée, on sait peu de choses sur leurs méthodes de chronométrage. [3] Les mésoaméricains ont modifié leur système de comptage vigésimal habituel lorsqu'ils traitent des calendriers pour produire une année de 360 ​​jours. [4]

Les aborigènes australiens comprenaient bien le mouvement des objets dans le ciel et utilisaient leurs connaissances pour construire des calendriers et faciliter la navigation. La plupart des cultures aborigènes avaient des saisons bien définies et déterminées par des changements naturels tout au long de l'année, y compris des événements célestes. Les phases de la lune étaient utilisées pour marquer des périodes de temps plus courtes. Les Yaraldi d'Australie-Méridionale étaient l'une des rares personnes enregistrées comme ayant un moyen de mesurer le temps pendant la journée, qui était divisé en sept parties en utilisant la position du Soleil. [5]

Egypte Ancienne et Mésopotamie Modifier

Tous les chronométreurs avant le développement de l'échappement s'appuyaient sur des méthodes qui utilisaient quelque chose qui se déplaçait continuellement. Aucune méthode précoce pour garder le temps changé à un rythme régulier. [6] Les plus anciens dispositifs de chronométrage connus ont été fabriqués dans l'Égypte ancienne, depuis quand les dispositifs et les méthodes pour garder le temps se sont améliorés continuellement grâce à une longue série de nouvelles inventions et idées. [7]

Les premiers appareils utilisés pour mesurer la position du Soleil étaient des horloges à ombres, qui sont ensuite devenues le cadran solaire. [8] [note 1] Obélisques égyptiens antiques, construits c. 3500 avant JC, sont également parmi les premières horloges fantômes. [9] Le plus ancien de tous les cadrans solaires connus remonte à c. 1500 avant JC (au cours de la 19e dynastie), et a été découvert dans la Vallée des Rois en 2013. [10] Les cadrans anciens étaient basés sur des nœuds avec des lignes horaires droites qui indiquaient des heures inégales - également appelées heures temporaires - qui variaient avec les saisons. . Chaque jour était divisé en 12 segments égaux quelle que soit la période de l'année. Ainsi, les heures étaient plus courtes en hiver et plus longues en été. Chaque partie a ensuite été divisée en parties plus précises. [10] [11]

Les obélisques fonctionnaient à peu près de la même manière que l'ombre projetée sur les marqueurs qui l'entouraient permettait aux Égyptiens de calculer l'heure. L'obélisque indiquait également si c'était le matin ou l'après-midi, ainsi que les solstices d'été et d'hiver. [12] Une troisième horloge fantôme, développée c. 500 avant JC, était de forme similaire à un carré en T courbé. Il mesurait le passage du temps par l'ombre projetée par sa barre transversale sur une règle non linéaire. Les T était orienté vers l'est le matin, et se retournait à midi, afin qu'il puisse projeter son ombre dans la direction opposée. [13]

Bien que précises, les horloges d'ombre étaient inutiles la nuit et par temps nuageux. [14] Les Égyptiens ont donc développé d'autres instruments de chronométrage, dont l'horloge à eau, et un système de suivi des mouvements des étoiles. La description la plus ancienne d'une horloge à eau provient de l'inscription funéraire du fonctionnaire de la cour du début de la 18e dynastie (vers 1500 av. J.-C.) Amenemhet, aujourd'hui perdue, l'identifiant comme son inventeur. [15] On suppose que l'objet décrit sur l'inscription est une horloge à eau égyptienne classique, c'est-à-dire un bol avec de petits trous dans son fond, qui flottait sur l'eau et se remplissait à un rythme presque constant des marques sur le côté de le bol indiquait le temps écoulé, à mesure que la surface de l'eau les atteignait. [16] La plus ancienne horloge à eau connue a été trouvée dans la tombe du pharaon Amenhotep III (vers 1417-1379 av. J.-C.). [17]

Une autre méthode égyptienne pour déterminer l'heure pendant la nuit utilisait un type de fil à plomb appelé merkhet. En usage depuis au moins 600 avant JC, deux merkhets ont été alignés avec Polaris, l'étoile polaire nord, pour créer un méridien nord-sud. Le temps a été déterminé en observant des étoiles particulières alors qu'elles traversaient le méridien. [18]

Les horloges à eau et les cadrans solaires étaient connus depuis l'antiquité classique [19] une tablette d'argile de la fin de la période babylonienne décrit la longueur des ombres à différentes périodes de l'année. [20] Il n'y a pas d'exemples reconnus d'horloges à eau sortant de l'ancienne Mésopotamie d'horloges à eau sortant, mais des références écrites ont survécu. [20] Le texte d'une tablette au British Museum décrit une horloge à eau utilisée par des astronomes (qui travaillaient aussi comme devins célestes), qui mesurait le temps en utilisant des poids d'eau. Il "décrit explicitement un rapport de la nuit la plus longue à la nuit la plus courte comme 3:2 en termes de poids". [21]

Grèce antique et Rome Modifier

L'écrivain babylonien Berossos (fl. IIIe siècle av. J.-C.) est crédité par les Grecs de l'invention d'un cadran solaire hémisphérique creusé dans la pierre, conçu pour que le chemin de l'ombre soit divisé en 12 parties afin de marquer le temps. . [22] Les cadrans solaires grecs ont évolué pour devenir des cadrans très sophistiqués de Ptolémée Analemme, écrit au IIe siècle de notre ère, utilisait une forme ancienne de trigonométrie pour dériver la position du soleil à partir de données telles que l'heure du jour et la latitude géographique. Les Romains ont emprunté l'idée du cadran solaire aux Grecs. [23] [24] [note 2]

Les philosophes grecs Anaxagore et Empédocle ont tous deux fait référence à une forme simple d'horloge à eau, dont deux types étaient connus : des récipients utilisés pour faire respecter les limites de temps et d'autres qui marquaient le passage du temps. [27] [28] Le philosophe athénien Platon est censé avoir inventé une forme de réveil pour réveiller ses étudiants, [29] qui aurait pu se composer de boules de plomb dans un vaisseau flottant. Les billes de plomb cascadèrent bruyamment sur un plateau de cuivre après que le navire flottant eut atteint le sommet de son réservoir d'eau. [30] [note 3]

L'astronome grec Andronicus de Cyrrhus a conçu la Tour des Vents à Athènes au 1er siècle avant JC, il est prouvé qu'elle avait autrefois huit cadrans solaires, une horloge à eau et une girouette. [31] Dans la tradition grecque, les clepsydres ont été utilisées plus tard devant les tribunaux, les Romains ont également adopté cette pratique. Il y a plusieurs mentions de cela dans les documents historiques et la littérature de l'époque par exemple, dans Théétète, Platon dit que "Ces hommes, par contre, parlent toujours à la hâte, car l'eau qui coule les pousse". [32]

Bien qu'elles ne soient toujours pas aussi précises que les cadrans solaires, les horloges à eau grecques sont devenues plus précises vers 325 av. L'un des problèmes les plus courants dans la plupart des types de clepsydres était causé par la pression de l'eau : lorsque le récipient contenant l'eau était plein, la pression accrue faisait s'écouler l'eau plus rapidement. Ce problème a été abordé par les horlogers grecs et romains à partir de 100 avant JC, et des améliorations ont continué d'être apportées au cours des siècles suivants. Pour contrer l'augmentation du débit d'eau, les récipients d'eau de l'horloge - généralement des bols ou des cruches - ont reçu une forme conique positionnée avec l'extrémité large vers le haut, une plus grande quantité d'eau devait s'écouler afin de descendre à la même distance que lorsque l'eau était plus bas dans le cône. Parallèlement à cette amélioration, les horloges ont été construites plus élégamment à cette époque, avec des heures marquées par des gongs, des portes s'ouvrant sur des figurines miniatures, des cloches ou des mécanismes mobiles. [14] L'un des problèmes associés aux horloges à eau qui signifiait qu'elles ne fonctionnaient pas bien était l'effet de la température sur l'eau liquide. L'eau s'écoule plus lentement lorsqu'elle est froide ou gèle, et le taux d'évaporation de la surface dépend de la température. [33]

Entre 270 av. J.-C. et 500 apr. La complexité supplémentaire visait à réguler le flux et à fournir des représentations plus sophistiquées du passage du temps. Par exemple, certaines horloges à eau sonnaient des cloches et des gongs, tandis que d'autres ouvraient des portes et des fenêtres pour montrer des figurines de personnes, ou déplaçaient des pointeurs et des cadrans. Certains ont même affiché des modèles astrologiques de l'univers. [ citation requise ] L'ingénieur grec Philon de Byzance (fl. IIIe siècle av. J.-C. ) a décrit comment le liquide était utilisé pour ralentir la vitesse d'une horloge à eau dans son traité technique Pneumatique (chapitre 31) où il compare le mécanisme d'un automate de lavabo à ceux employés dans les horloges (à eau). [34]

Bien que les Grecs et les Romains aient beaucoup fait pour faire progresser la technologie des horloges à eau, ils ont continué à utiliser des horloges d'ombre. Le mathématicien et astronome Théodose de Bithynie aurait inventé un cadran solaire universel qui était précis n'importe où sur Terre, bien que l'on en sache peu à son sujet. [35] L'obélisque du Campus Martius a été utilisé comme gnomon pour le cadran solaire zodiacal d'Auguste. [36] Le commandant militaire et naturaliste romain Pline l'Ancien rapporte que le premier cadran solaire à Rome est arrivé en 264 av. un siècle plus tard. [37]

Horloges à eau chinoises Modifier

L'historien britannique de la science chinoise Joseph Needham a émis l'hypothèse que l'introduction de la clepsydre de sortie en Chine, peut-être de Mésopotamie, s'est produite dès le 2e millénaire avant JC, pendant la dynastie Shang, et au plus tard au 1er millénaire avant JC. Au début de la dynastie Han, en 202 av. Pour compenser la chute de pression dans le réservoir, qui ralentissait le chronométrage au fur et à mesure que le récipient se remplissait, Zhang Heng a ajouté un réservoir supplémentaire entre le réservoir et le récipient d'entrée. Vers 550 après JC, Yin Gui a été le premier en Chine à écrire sur le réservoir à débordement ou à niveau constant ajouté à la série, qui a ensuite été décrit en détail par l'inventeur Shen Kuo. Vers 610, cette conception a été supplantée par deux inventeurs de la dynastie Sui, Geng Xun et Yuwen Kai, qui ont été les premiers à créer la balance clepsydra, avec des positions standard pour la balance en acier. [38] Needham a déclaré que :

. [la clepsydre d'équilibre] a permis l'ajustement saisonnier de la hauteur de pression dans le réservoir de compensation en ayant des positions standard pour le contrepoids gradué sur la poutre, et donc il pouvait contrôler le débit pour différentes durées de jour et de nuit. Avec cet arrangement, aucun réservoir de débordement n'était nécessaire et les deux préposés étaient avertis lorsque la clepsydre devait être remplie. [38]

En 721, le moine et mathématicien tantrique Yi Xing et le fonctionnaire du gouvernement Liang Lingzan ont réglementé la puissance de l'eau entraînant une horloge astronomique, divisant la puissance en impulsions unitaires afin que le mouvement des planètes et des étoiles puisse être dupliqué. [39] Le liquide dans les horloges à eau était susceptible de geler et devait être maintenu au chaud avec des torches, un problème qui a été résolu en 976 par l'astronome et ingénieur chinois Zhang Sixun. Son invention, une amélioration considérable de l'horloge de Yi Xing, utilisait du mercure à la place de l'eau. Le mercure est un liquide à température ambiante et gèle à −38,9 °C (−38,0 °F), soit une température inférieure à toute température de l'air que l'on trouve normalement sur Terre. [40] [41] Une tour d'horloge astronomique alimentée par l'eau a été construite par le polymathe Su Song en 1088, [14] qui comportait le premier entraînement à chaîne de transmission de puissance sans fin connu en horlogerie. [42]

Horloges à encens chinois Modifier

Les horloges à encens ont été utilisées pour la première fois en Chine vers le 6ème siècle au Japon, une existe toujours dans le Shōsōin, [43] bien que ses caractères ne soient pas chinois, mais Devanagari. [44] En raison de leur utilisation fréquente des caractères Devanagari, suggérant leur utilisation dans les cérémonies bouddhistes, le sinologue américain Edward H. Schafer a supposé que les horloges à encens avaient été inventées en Inde. [44] Comme ils brûlent uniformément et sans flamme, ils sont précis et sans danger pour une utilisation en intérieur. [45]

Plusieurs types d'horloge d'encens ont été trouvés, les formes les plus courantes incluent le bâton d'encens et le sceau d'encens. Une horloge de bâton d'encens était un bâton d'encens avec des étalonnages dont certains poids ont chuté à intervalles réguliers. [46] De l'encens avec des parfums différents a été utilisé, de sorte que les heures étaient marquées par un changement d'odeur à mesure que les bâtons brûlaient. [47] Les bâtons d'encens pouvaient être droits ou en spirale, ceux en spirale étaient destinés à de longues périodes d'utilisation et étaient souvent suspendus aux toits des maisons et des temples. [48] ​​Au Japon, une geisha était payée pour le nombre de senkodokei (bâtons d'encens) qui avaient été consommés en sa présence, une pratique qui s'est poursuivie jusqu'en 1924. [49]

Les horloges à sceau d'encens étaient utilisées pour des occasions et des événements similaires à l'horloge à bâtons, tandis que les objectifs religieux étaient d'une importance primordiale [46], ces horloges étaient également populaires lors de rassemblements sociaux et étaient utilisées par les érudits et les intellectuels chinois. [50] Le sceau était un disque en bois ou en pierre avec une ou plusieurs rainures gravées [46] dans lequel l'encens était placé. [51] Ces horloges étaient courantes en Chine, [50] mais ont été produites en moins grand nombre au Japon. [52] Pour marquer des heures différentes, des encens parfumés différemment (fabriqués à partir de recettes différentes) pourraient être utilisés. [53] La longueur de la traînée d'encens, directement liée à la taille du sceau, a été le principal facteur pour déterminer combien de temps l'horloge durerait pour brûler 12 heures un chemin d'encens d'environ 20 pieds (6,1 m) a été estimé . [54]

Alors que les premiers sceaux d'encens étaient en bois ou en pierre, les Chinois ont progressivement introduit des disques en métal, probablement à partir de la dynastie Song. Cela a permis aux artisans de créer plus facilement des sceaux grands et petits, ainsi que de les concevoir et de les décorer de manière plus esthétique. Un autre avantage était la possibilité de varier les chemins des rainures, pour tenir compte de la longueur changeante des jours dans l'année. Au fur et à mesure que les petits sceaux sont devenus plus facilement disponibles, les horloges ont gagné en popularité parmi les Chinois et ont souvent été offertes en cadeau. [55] Les horloges à sceau d'encens sont souvent recherchées par les collectionneurs d'horloges modernes, mais il en reste peu qui n'ont pas déjà été achetées ou exposées dans des musées ou des temples. [52]

L'une des premières mentions d'une horloge à bougie se trouve dans un poème chinois, écrit en 520 après JC par You Jianfu, qui a écrit que la bougie graduée était un moyen de déterminer l'heure la nuit. Des bougies similaires ont été utilisées au Japon jusqu'au début du Xe siècle. [56]

Perse antique et médiévale Modifier

L'utilisation des horloges à eau par les Perses remonte à 500 avant JC, l'époque de l'empire achéménide. Selon l'historien grec Callisthène, les agriculteurs utilisaient une horloge à eau (appelée fenjaan) en 328 avant JC pour assurer une distribution juste et exacte de l'eau des qanats pour l'irrigation. Un bol avec un petit trou flottait dans une grande casserole d'eau. Dès que le bol a coulé, le gérant (appelé le khaneh fenjaan) l'a vidé et l'a remis sur le dessus de l'eau. Des pierres ont été utilisées pour enregistrer le nombre de fois où le bol a coulé. Il fallait plus d'un manager, généralement un sage, pour être en charge de la gestion continue du temps à l'aide du fenjaan. [ citation requise ]

L'endroit où se trouvait l'horloge, aussi appelé un khaneh fenjaan, serait généralement le dernier étage d'un bâtiment, avec des fenêtres orientées à l'ouest et à l'est pour permettre de visualiser les heures de coucher et de lever du soleil. Le fenjaan a également été utilisé pour déterminer les jours des religions préislamiques, telles que le Norouz, Chelah, ou Yaldā— les jours et les nuits les plus courts, les plus longs et de durée égale de l'année. Les horloges à eau étaient à cette époque l'un des outils anciens les plus pratiques pour chronométrer le calendrier. [ citation requise ]

Autres premières références au chronométrage

Un cadran solaire est mentionné dans la Bible, lorsque Ézéchias, roi de Judée au VIIIe siècle av. J.-C., fut guéri par le prophète Isaïe. Après que le roi ait demandé un signe qu'il récupérerait, l'Ancien Testament se lit comme suit : [57]

Et Esaïe dit : Tu auras ce signe du Seigneur, que le Seigneur fera ce qu'il a dit : l'ombre avancera-t-elle de dix degrés, ou reculera-t-elle de dix degrés ? Et Ézéchias répondit : C'est une chose légère que l'ombre descende de dix degrés : non, mais que l'ombre revienne en arrière de dix degrés. Et Esaïe le prophète cria au Seigneur, et il fit reculer de dix degrés l'ombre par laquelle elle était descendue dans le cadran d'Achaz.

Horloges à bougies Modifier

Au Xe siècle, l'invention de l'horloge à bougies fut attribuée par les anglo-saxons à Alfred le Grand, roi du Wessex. L'histoire de la création de l'horloge a été racontée par Asser, le biographe du roi, qui a vécu à la cour d'Alfred et est devenu son proche collaborateur. [58] Alfred a utilisé six bougies, chacune faite de 12 pennyweights de cire, et faites pour être de 12 pouces (30 cm) de haut et d'une épaisseur uniforme. Les bougies étaient marquées à des intervalles d'un pouce. Une fois allumées, elles protégeaient du vent en étant placées dans une lanterne en bois et corne transparente. Il aurait fallu 20 minutes pour brûler jusqu'à la marque suivante, les bougies, allumées les unes après les autres, ont duré 24 heures. [59]

L'inventeur musulman du XIIe siècle Al-Jazari a décrit quatre modèles différents pour une horloge à bougie dans son livre Le livre de la connaissance des dispositifs mécaniques ingénieux (IKitab fi Ma'rifat al-Hiyal al-Handasiyya). [60] [61] Sa soi-disant horloge à bougie « scribe » a été inventée pour marquer le passage de 14 heures de durée égale : le long d'une échelle. Toutes les heures, une petite boule sortait du bec d'un oiseau. [60]

Cadrans solaires Modifier

Selon l'historien allemand de l'astronomie Ernst Zinner, au 13ème siècle, les cadrans solaires ont été développés avec des échelles qui indiquaient des heures égales, tandis que le premier basé sur l'heure polaire est apparu en Allemagne c. 1400, une théorie alternative propose qu'un cadran solaire de Damas mesurant en temps polaire puisse être daté de 1372. [62] Le cadran solaire moderne est apparu pour la première fois après la révolution copernicienne et l'adoption des heures égales. [63]

Les traités européens sur la conception des cadrans solaires sont apparus c. 1500. [64] En 1524, l'astronome français Oronce Finé qui écrivit un traité et construisit un exemple de cadran solaire en ivoire, aujourd'hui au Museo Poldi Pezzoli, Milan. L'instrument, destiné à la cour de François Ier de France, avait la forme d'un navire : correctement orienté, un fil à plomb projetait une ombre sur le cadran. Les heures et deux échelles zodiacales sont gravées sur la coque, tandis que les signes des constellations apparaissent le long du mât. [65]

Sabliers Modifier

Étant donné que le sablier était l'une des rares méthodes fiables de mesure du temps en mer, on suppose qu'il a été utilisé à bord des navires dès le XIe siècle, lorsqu'il aurait complété le compas magnétique comme aide à la navigation. Cependant, la première preuve sans ambiguïté de leur utilisation apparaît dans la peinture Allégorie du bon gouvernement, par l'artiste italien Ambrogio Lorenzetti, à partir de 1338. [66] À partir du XVe siècle, les sabliers ont été utilisés dans un large éventail d'applications en mer, dans les églises, dans l'industrie et dans la cuisine, ils ont été les premiers fiables, réutilisables, raisonnablement dispositifs de mesure du temps précis et faciles à construire. Le sablier a également pris des significations symboliques, telles que celle de la mort, de la tempérance, de l'opportunité et du temps du père, généralement représenté comme un vieil homme barbu. [67] Le navigateur portugais Ferdinand Magellan a utilisé 18 sabliers sur chaque navire lors de son tour du monde en 1522. [68] Bien qu'également utilisé en Chine, l'histoire du sablier y est inconnue, [69] mais ne semble pas avoir été utilisé en Chine avant le milieu du XVIe siècle [70] et le sablier implique l'utilisation du soufflage du verre, qui apparaît comme un art entièrement européen et occidental. [71]

Engrenages dans les horloges et les astrolabes Modifier

Les premières innovations visant à améliorer la précision du sablier et de l'horloge à eau ont eu lieu au 10ème siècle, lorsque des tentatives ont été faites pour utiliser des poids ou des frictions pour ralentir le débit du sable ou de l'eau. [72] La première horloge à engrenages a été inventée au XIe siècle par l'ingénieur arabe Ibn Khalaf al-Muradi dans la péninsule ibérique islamique. [73] Les horloges à eau islamiques, qui utilisaient des trains d'engrenages complexes et incluaient des rangées d'automates, étaient inégalées dans leur sophistication jusqu'au milieu du XIVe siècle. [73] [74] Ils ont développé un mécanisme à entraînement liquide (en utilisant des flotteurs lourds et un système à tête constante) pour faire descendre les horloges à eau à un rythme plus lent. [74]

Une horloge frappante en dehors de la Chine était l'horloge à eau Jayrun, à la mosquée des Omeyyades à Damas, en Syrie, qui sonnait une fois par heure. Il a été construit par Muhammad al-Sa'ati au 12ème siècle, et décrit plus tard par son fils Ridwan ibn al-Sa'ati, dans son De la construction des horloges et de leur usage (1203), lors de la réparation de l'horloge. [75] En 1235, un premier réveil monumental fonctionnant à l'eau qui "annonçait les heures de prière et l'heure de jour et de nuit" fut achevé dans le hall d'entrée de la médersa Mustansiriya à Bagdad. [76]

Les astronomes musulmans contemporains ont construit une variété d'horloges astronomiques très précises pour une utilisation dans leurs mosquées et leurs observatoires, [77] comme l'horloge astrolabique d'Ibn al-Shatir au début du 14ème siècle. [78] Des astrolabes de chronométrage sophistiqués avec des mécanismes à engrenages ont été fabriqués en Perse, construits par le polymathe Abū Rayhān Bīrūnī au 11ème siècle et l'astronome Muhammad ibn Abi Bakr al‐Farisi en c. 1221. [79] [80]

L'astrolabe en laiton et en argent fabriqué à Ispahan par Muhammad ibn Abi Bakr al‐Farisi est la plus ancienne machine dont les engrenages sont encore intacts. C'est à la fois un astrolabe et un calendrier. Le design provient d'un texte d'Abū Rayhān Bīrūnī, mais l'engrenage a été simplifié. Les ouvertures au dos de l'astrolabe représentent les phases lunaires et donnent l'âge de la Lune dans une échelle zodiacale. Deux anneaux concentriques indiquent les positions relatives du Soleil et de la Lune. [81]

Une horloge astronomique sophistiquée alimentée à l'eau a été décrite par Al-Jazari dans son traité sur les machines, écrit en 1206. . Il comprenait un affichage du zodiaque et des chemins solaire et lunaire, et un pointeur en forme de croissant de lune qui traversait le haut d'une passerelle, déplacé par un chariot caché et provoquant l'ouverture des portes, chacune révélant un mannequin, chaque heure. [83] Il était possible de remettre à zéro la durée du jour et de la nuit afin de tenir compte de l'évolution de la durée du jour et de la nuit tout au long de l'année. Cette horloge comportait également un certain nombre d'automates, notamment des faucons et des musiciens qui jouaient automatiquement de la musique lorsqu'ils étaient déplacés par des leviers actionnés par un arbre à cames caché attaché à une roue à eau. [84]

Le mot anglais l'horloge est apparu pour la première fois en moyen anglais comme manteau, cape, ou clokke. L'origine du mot n'est pas connue avec certitude, il peut s'agir d'un emprunt au français ou au néerlandais, et peut peut-être être attribué au latin post-classique horloge ('cloche'). Sources irlandaises du 7ème siècle et germaniques du 9ème siècle enregistrées l'horloge comme signifiant "cloche". [85]

Le judaïsme, le christianisme et l'islam avaient tous des temps réservés à la prière, bien que seuls les chrétiens devaient assister aux prières à des heures spécifiques du jour et de la nuit - ce que l'historien Jo Ellen Barnett décrit comme "une adhésion rigide aux prières répétitives dit plusieurs fois par jour ". [86] Les alarmes sonnant la cloche ont averti le moine de service de sonner la cloche monastique. Son réveil était une minuterie qui utilisait une forme d'échappement pour faire sonner une petite cloche. Ce mécanisme était le précurseur du dispositif d'échappement trouvé dans l'horloge mécanique. [87] [88]

De grandes horloges mécaniques ont été inventées qui ont été montées dans des tours pour sonner directement la cloche. Les plus anciennes connues sont l'horloge de la tour de la cathédrale de Norwich (construite vers 1321 –1325), l'horloge de l'abbaye de St Albans (achevée vers 1360) et une horloge astronomique conçue et construite par Giovanni Dondi dell'Orologio qui a été achevée en 1364. [note 4] Aucune de ces premières horloges n'a survécu. [89] Au cours du XIVe siècle, des horloges à sonnerie sont apparues avec une fréquence croissante dans les espaces publics, d'abord en Italie, un peu plus tard en France et en Angleterre — entre 1371 et 1380, des horloges publiques ont été introduites dans plus de 70 villes européennes. [90] Les premiers horlogers professionnels [ lorsque? ] provenaient des corporations de serruriers et de bijoutiers. [91] Le mécanisme entraîné par un poids est probablement une invention d'Europe occidentale, car une image d'une horloge du XIIIe siècle montre un poids tirant un axe, son mouvement ralenti par un système de trous qui libèrent lentement de l'eau. [92]

À peu près au même moment que l'invention du mécanisme d'échappement, le poète florentin Dante Alighieri a utilisé l'imagerie de l'horloge pour représenter les âmes des bienheureux dans Paradiso, la troisième partie du Comédie divine. C'est peut-être la première description littéraire connue d'une horloge mécanique. [93] Giovanni da Dondi, professeur d'astronomie à Padoue, a présenté la première description détaillée de l'horlogerie dans son traité de 1364 Il Tractatus Astrarii. [94] Cela a inspiré plusieurs répliques modernes, dont certaines au Science Museum de Londres et à la Smithsonian Institution. [94] D'autres exemples notables de cette période ont été construits à Milan (1335), Strasbourg (1354), Rouen (1389), Lund (vers 1425) et Prague (1462). [94] Les premiers cadrans d'horloge montraient qu'une horloge avec un cadran de minutes est mentionnée dans un manuscrit de 1475. [95] En 1577, l'astronome danois Tycho Brahe avait obtenu la première des quatre horloges mesurant en secondes. [96]

L'horloge de la cathédrale de Salisbury, datant d'environ 1386, est l'une des plus anciennes horloges fonctionnelles au monde et peut-être la plus ancienne dont elle possède encore la plupart de ses pièces d'origine. [97] [note 5] L'horloge de la cathédrale de Wells, construite en 1392, est unique en ce qu'elle a toujours son visage médiéval d'origine, montrant un modèle de l'univers géocentrique pré-copernicien. Au-dessus de l'horloge se trouvent des personnages qui sonnent les cloches, et un ensemble de chevaliers de joute qui tournent autour d'une piste toutes les 15 minutes. [ citation requise ] [note 6] Horloges astronomiques similaires, ou horlogerie, survivent à Exeter, Ottery St Mary et Wimborne Minster. [ citation requise ] Les tours d'horloge de l'Europe occidentale au Moyen Âge sonnaient l'heure. L'original le plus célèbre encore debout est peut-être l'horloge Saint-Marc au sommet de la tour de l'horloge Saint-Marc sur la place Saint-Marc à Venise, assemblée en 1493 par l'horloger Gian Carlo Rainieri de Reggio Emilia. En 1497, Simone Campanato a moulé la grande cloche sur laquelle chaque time-lapse défini est battu par deux statues mécaniques en bronze (h. 2,60 m.) appelées Due Mori (Deux Maures), manier un marteau. Peut-être plus tôt (1490) est l'horloge astronomique de Prague par le maître horloger Jan Růže (également appelé Hanuš) - selon une autre source, cet appareil a été assemblé dès 1410 par l'horloger Mikuláš de Kadaň et le mathématicien Jan Šindel. Le défilé allégorique de sculptures animées sonne tous les jours.

L'ingénieur ottoman Taqi al-Din a décrit une horloge à poids avec un échappement à verge et foliot, un train d'engrenages frappant, une alarme et une représentation des phases de la lune dans son livre Les étoiles les plus brillantes pour la construction d'horloges mécaniques (Al-Kawākib al-durriyya fī wadh' al-bankāmat al-dawriyya), écrit vers 1556. [99]


L'histoire de l'audio et de la mesure du son

Pendant quatre siècles, les philosophes naturels et les scientifiques ont cherché à quantifier et à dériver des normes qualitatives pour le son. La technologie d'aujourd'hui permet d'étudier les moindres détails et la structure des signaux sonores et audio. Afin de comprendre les systèmes de mesure informatisés sophistiqués d'aujourd'hui et de mettre leurs capacités en perspective, il est utile d'examiner, d'un point de vue historique et scientifique, les développements technologiques et les systèmes qui ont donné naissance à la science de la mesure audio.

Au début
Pendant des siècles, on a pensé que le son était si éphémère que toute tentative de le capturer - de tenir une règle contre lui - serait un exercice vain. En fait, jusqu'au XVIIe siècle, les philosophes de la nature pensaient qu'il était absolument illogique de tenter de le quantifier ou même de théoriser sur sa mesure.

Aristote (384-322 av. J.-C.), travaillant à partir d'anciennes recherches sur la conception théâtrale, a estimé que les hauteurs aiguës doivent voyager plus rapidement que les hauteurs inférieures. Les moyens expérimentaux pour réfuter cette théorie étaient facilement disponibles, mais aucune de ces expériences n'a été réalisée pendant deux mille ans, et même alors, les expérimentateurs ont retenu leurs résultats contradictoires de peur d'être méprisés, ridiculisés ou ostracisés.

Même le mot pour cette science cum art - acoustique - vient d'ailleurs. Il est venu à l'anglais du français, auquel il y a une dérivation problématique du grec. Francis Bacon (1561-1626) l'a utilisé dans son livre de 1605 Avancement de l'apprentissage. En 1863, un auteur anonyme de Transactions philosophiques de la Royal Society a écrit, « L'audition peut être divisée en direct, réfracté et réflexe », qui sont encore sans nom à moins que nous ne les appelions acousticks, Diacousticks et catacousticks. , comme au 19ème siècle ils commenceraient à se coiffer) avaient besoin d'un mot pour les expériences qu'ils commençaient à mener.

Enfin, dans la seconde moitié du XVIIe siècle, l'invention du calcul a créé, presque du jour au lendemain, une révolution dans notre compréhension et notre étude de la propagation du son. Maintenant, nous avions des formules pour les densités et les élasticités, les déplacements de cordes, la superposition et la propagation, les plaques et les coques - ils défilent page après page après des centaines de pages supplémentaires et des milliers d'équations sans fin à travers Lord Rayleigh’s Théorie du son. Pourtant, la seule affirmation simple selon laquelle le son fait ceci ou cela n'a pas été reçue. Les nouvelles techniques mathématiques ont créé une machine énorme et puissante pour traiter et analyser les résultats expérimentaux, mais ces exercices se déroulaient généralement dans un vide curieux : il n'y avait aucun résultat expérimental contre lequel les tester.

La vitesse du son
À l'époque préhistorique, les gens savaient que le son voyageait plus lentement que la lumière. Cela a été démontré chaque fois qu'un éclair était suivi d'un coup de tonnerre. Plus tard, un arbre serait retrouvé explosé en morceaux et réduit en cendres, localisant la cible exacte de la foudre,

Les premières mesures réelles ont été faites par Pierre Gassendi (1592-1655) et Matin Mersènne (1588-1648). Mersènne a utilisé un pendule pour mesurer le temps entre l'éclat de la poudre à canon et l'arrivée du son. Gassendi utilisait une pièce d'horlogerie mécanique, et c'est lui qui découvrit que le craquement aigu d'un mousquet et la perche d'un canon arrivaient en même temps et réalisa que tous les pas voyageaient à la même vitesse.

Dans son livre de 1687 Prlncipia Mathematica, Newton a prédit la vitesse du son en utilisant le nouveau calcul pour créer une analyse purement mathématique. Les amis de Newton, John Flamsteed (1646-1719, le premier astronome royal) et le découvreur de comètes Edmond Halley (1656-1742) ont mesuré la vitesse du son pour confirmer le triomphe de Newton. Ils ont regardé à travers un télescope à l'observatoire de Greenwich un coup de canon tiré sur Shooter’s Hill, à trois milles (4,8 km). À leur plus grande mortification, ils ont trouvé que la prédiction de Newton était de 20% lente.

Ils ont essayé encore et encore, ils ont essayé de rendre compte de chaque variable, ils ont réexaminé la distance à travers les champs ouverts, et ils n'ont toujours pas pu obtenir que leur mesure soit en accord avec la théorie. Enfin, incapable de trouver une faille dans la théorie de Newton et incapable pour expliquer leurs mesures, ils ont abandonné le travail tandis que Newton s'en tenait fermement à sa vitesse du son publiée.

Lorsque plusieurs expériences ne pouvaient plus être niées, Newton a finalement truqué la théorie pour produire le nombre mesuré. Lors de sa seule incursion dans l'acoustique, le grand dieu Newton s'est comporté de manière totalement déshonorante.

En 1738, l'Académie des sciences de Paris mesurait et publiait une vitesse du son à moins de 0,5 % de la valeur que nous acceptons aujourd'hui. Après cela, les Français mèneraient le domaine dans les mesures de la vitesse du son dans les solides. Jean Biot (1774-1862) a mesuré la vitesse du son dans le fer en assemblant de grandes longueurs de conduites d'eau en fonte nouvellement et en les frappant avec des marteaux. Il a été rapporté que les fonctionnaires parisiens des travaux publics bloqueraient les installations de canalisations pour permettre ce genre de travail scientifique.

Analyse de fréquence
Le scientifique, inventeur et expérimentateur italien Galilée (1564-1642) a dessiné un couteau sur le bord fraisé (ou dentelé) d'une pièce et a noté le ton produit. Il a théorisé que le son était une séquence d'impulsions dans l'air. Faire glisser le couteau plus rapidement produisait des tons plus élevés, il réalisa donc que des tons plus élevés nécessitaient un train d'impulsions plus rapide.

En mars 1676, le grand scientifique britannique Robert Hooke (1635-1703) décrit dans son journal une machine à produire du son. Cinq ans plus tard, il le démontra à la Royal Society. Une roue dentée en bois tournait et une carte ou un roseau était maintenu contre elle. Les enfants font encore quelque chose comme ça aujourd'hui, avec une carte à jouer tenue contre les rayons d'une roue de vélo. Hooke a noté qu'un motif régulier de dents produisait des sons ressemblant à de la musique, tandis que des dents plus irrégulières produisaient quelque chose qui ressemblait davantage à de la parole.

Le travail de Hooke n'a pas été publié pendant un quart de siècle (1705) et n'a pas été utilisé pour une étude plus approfondie pendant 150 ans. Cependant, en 1834, le Français Félix Savart (1791-1841) construisait des roues géantes en laiton de 82 cm de diamètre, avec 720 dents. La contribution de Savart était un tachymètre mécanique relié à l'axe de la roue dentée. Il a calibré une échelle de rotation avec la fréquence dentaire et a démontré pour la première fois que des tons spécifiques étaient associés à des fréquences spécifiques (Figure 1).

Figure 1. La roue de Savart a permis de comparer les fréquences entendues dans l'air avec le bourdonnement de la roue dentée (1830).

Il pouvait déterminer la fréquence d'une tonalité entendue dans l'air en utilisant son oreille pour la faire correspondre avec la roue dentée et en lisant la fréquence sur le tachymètre. Il utilisait son oreille et son cerveau pour faire ce qu'un ingénieur électricien moderne appellerait une analyse hétérodyne.

L'histoire est parfois désinvolte lorsqu'il s'agit d'attribuer des noms. Ces grandes roues dentées, la partie inventée par Hooke, s'appellent aujourd'hui les roues “Savart’s, tandis que les Savart’s ayant apporté le tachymètre sont oubliées.

En 1711, la Grande-Bretagne a fait une magnifique invention qui aurait un effet fondamental sur l'acoustique, la musique et la médecine. Cet appareil était si crucial qu'en acoustique il allait servir de base à deux siècles de mesure. John Shore (1662-1752) était sergent-trompettiste de George I, et une magnifique musique fut composée pour lui par Henry Purcell (1659-1695) et Georg Fredrick Handel (1685-1759). La contribution de Shore à la science de la mesure était le diapason - une norme de fréquence désormais disponible et à laquelle nous pouvons encore nous référer. Ne réalisant pas l'impact de son travail, Shore, avec un euphémisme typique et une touche de sarcasme, a nommé sa construction « la fourche ».

À la fin du 19e siècle, Karl Rudolph Koenig (1832-1901) construisait des diapasons avec des dents de 8 pieds de long avec un diamètre de 20 pouces (508 mm). Koenig a construit des horloges qui utilisaient des diapasons ultra-précis pour entraîner l'échappement, un concept qui serait incorporé dans les montres-bracelets un siècle plus tard.

Regarder les ondes sonores
En 1807, Thomas Young (1773-1829) a enduit un cylindre de verre de noir de fumée, a poussé une épingle à travers un diaphragme flexible et, en criant dans le diaphragme, a pu voir les ondes sonores gravées dans le noir de fumée. Le Français Édouard-Léon Scott de Martinville (1817-1879) a développé cette idée. Il a utilisé les oreilles de chiens décapités comme cornes de réception pour concentrer les ondes sonores. Sur le petit bout de l'oreille, il plaça une plume, dont la pointe pointue écrivait des ondes sonores dans le noir de fumée sur un cylindre. Il l'a démontré en 1854, l'appelant le phonautographe (Figure 2). Les versions ultérieures ressemblaient étonnamment au phonographe d'Edison 20 ans plus tard, même si, bien sûr, il ne pouvait pas être lu.

Figure 2. Le phonautographe de de Martinville a permis aux expérimentateurs d'observer les formes d'ondes sonores (1856).

Les diapasons sont devenus une industrie, mais les usines qui les produisaient en série avaient besoin d'un moyen rapide et absolument précis de comparer un diapason nouvellement fabriqué à un standard. Cela peut être fait à l'oreille, bien sûr, mais c'est difficile dans l'environnement bruyant d'une usine métallurgique. En 1854, le Français Jules Lissajous (1822-1880) développa une méthode optique d'une grande élégance.

Lissajous a tourné deux fourches à angle droit l'une par rapport à l'autre, donc l'une vibrait horizontalement et l'autre verticalement. Lissajous ferait briller une tache de lumière sur une dent d'une fourche, la refléterait sur la dent de l'autre fourche et observerait le motif en boucle à travers un système de lentilles (figure 3).

Figure 3. L'oscilloscope mécanique développé par Jules Lissajous (1857).

Plus tard, il a conçu un moyen de projeter ces motifs sur un écran. Ces modèles, nommés pour Lissajous, ont révélé une fréquence, une amplitude et une phase relatives. Plus tard, Hermann Helmholtz (1821-1894) a remplacé une fourchette par une corne et un diaphragme réfléchissant, de sorte que la fréquence d'une fourchette pouvait être comparée aux sons captés dans l'air. La fourchette était ce que nous appellerions aujourd'hui la base de temps de ce qui équivalait au premier oscilloscope mécanique.
Ces dispositifs mécaniques seront plus tard élaborés par Dayton Miller (1866-1941), qui appela son dispositif le phonodiek, et Maximilian Julius Otto Strutt (1903-1992). Dans les années 1920, Strutt travaillait pour N. V. Philips aux Pays-Bas. Il a fait la démonstration du premier enregistreur graphique avec une vitesse d'écriture ultra-élevée. Il a utilisé une élaboration plus poussée de la phonodiek de Miller,

Cet appareil, construit pour Strutt par Siemens et Halske d'Allemagne, utilisait une corne avec un diaphragme à la petite extrémité, avec un miroir sur le diaphragme qui dévierait avec ses vibrations. Le système optique utilisait une tache de lumière brillant dans ce miroir, mais cette fois la tache de lumière a été capturée par un ruban en mouvement de film de cinéma.
En utilisant une lentille appropriée, la déviation du spot pourrait être logarithmique. Une version ultérieure utilisait des obturateurs électromagnétiques développés pour le son optique sur film. Strutt a réalisé des enregistrements graphiques sur film 35 mm des désintégrations réverbérantes, et a donc étudié ce que nous appelons aujourd'hui la structure fine de la réverbération.

Notons cela en détail, car son ouvrage n'a été publié qu'une seule fois, en allemand, et jamais traduit [11]. Strutt a entrepris d'autres activités scientifiques après 1934, abandonnant complètement l'acoustique, et ce travail brillant a été complètement oublié.

La partie difficile : l'amplitude
Vitesse, fréquence, phase : au milieu de ces capacités de mesure durement acquises, l'amplitude du son - la quantité de son - fait étrangement défaut. En 1882, trois décennies après Lissajous, un instrument de mesure de la quantité de sons voit le jour. Lord Rayleigh (1842-1919) a placé un petit disque réfléchissant dans un tube de verre afin qu'il puisse pivoter sur un diamètre. Une extrémité du tube était ouverte, mais avait un tissu à travers elle donc les courants d'air aléatoires ne pouvaient pas déconcerter l'appareil (Figure 4).

Figure 4. Le disque de Rayleigh a effectué une mesure mécanique de la vitesse-volume acoustique (1882).

Le disque tournerait proportionnellement à la vitesse des particules des ondes sonores dans le tube de verre. C'était une mesure directe de la vitesse-volume, l'analogue acoustique du courant électrique. En projetant un faisceau de lumière sur le disque et en le réfléchissant sur une cible graduée, il a pu mesurer sa rotation et donc l'amplitude de l'onde sonore.


τ = la déviation angulaire en radians
= densité de l'air
r = le rayon du disque
= la vitesse instantanée des particules de l'air.

Le disque de Rayleigh était une grande percée mais avait de très sérieux problèmes fonctionnels. Il ne pouvait être utilisé qu'en laboratoire, uniquement dans des conditions étroitement contrôlées et uniquement par des techniciens bien formés. Cependant, juste au moment où le disque de Rayleigh a été introduit, un groupe d'inventions apparemment sans rapport faites ailleurs a commencé le processus qui allait rapidement mettre un terme à l'ère des mesures mécaniques du son.

L'ère électrique
Thomas Edison (1847-1931) et Emile Berliner (1851-1929) ont inventé le microphone à bouton carbone à une semaine d'intervalle, en 1876. Ils ont poursuivi et plaidé leur différend prioritaire pendant un quart de siècle. Enfin, la Cour suprême des États-Unis a confirmé le brevet d'Edison. Le microphone d'Edison s'est retrouvé avec Western Union. Le microphone de Berliner s'est retrouvé avec AT&T, et ce microphone réapparaîtra dans l'histoire des mesures acoustiques.

En 1882, la même année où Rayleigh inventa son appareil à disque, un médecin français, Jacques-Arsène d'Arsonval (1851-1940) cherchait un moyen de mesurer les minuscules courants électriques à l'intérieur du corps humain. Il a connecté une bobine de fil à une aiguille pivotante et a placé un grand aimant autour d'elle. Il a estimé que même de minuscules courants dans la bobine dévieraient l'aiguille. Il appela cet appareil le galvanomètre, le nom étant hommage à Luigi Galvani (1737-1798), qui avait fait sauter de la même manière une jambe de grenouille en appliquant un courant électrique. Cette création était si précise que le mouvement du galvanomètre d'Arsonval est toujours le mécanisme préféré des compteurs analogiques (Figure 5).

Figure 5. Le galvanomètre de d'Arsonval a été inventé pour la recherche médicale du XIXe siècle (1882) et porte le nom d'un anatomiste italien du XVIIe siècle.

C'est George Washington Pierce (1872-1956), manifestement américain, qui le premier connecta un microphone à bouton en carbone à un mouvement de galvanomètre et mesura le son électriquement. Le microphone à bouton en carbone en faisait un instrument terriblement peu fiable, sensible même à des changements mineurs de température, d'humidité et beaucoup pensaient aux phases de la lune. Malgré sa fragilité et ses bizarreries, il a tout simplement époustouflé les instruments mécaniques.

Les vieux instruments mécaniques n'iraient pas tranquillement dans les archives de l'histoire audio. Arthur Gordon Webster (1863-1923), connu pour ses recherches séminales sur le cor, écrivit en 1919 : « Je crois que je peux donner des réponses plus satisfaisantes à toutes les questions de ces ingénieurs du téléphone que ne peuvent l'être les instruments qu'il lève lui-même. Ils sont pratiques, sans aucun doute, et tout ça… [mais] je ne le fais pas de cette façon.”

Quatre inventions
L'ère électrique des mesures acoustiques a vraiment commencé en 1917, lorsque les ingénieurs de Western Electric ont combiné quatre inventions distinctes et sans rapport à l'époque pour créer une machine permettant des mesures sonores pratiques et fiables.

Le premier était le galvanomètre d’Arsonval’s, déjà discuté.

Le second était le microphone électrostatique ou à condensateur ”, inventé par Edward C. Wente (1889-1972) en 1916. Il a découvert que lorsqu'une membrane chargée vibrait, la capacité entre elle et une plaque d'appui stationnaire à 220 μm changeait en fonction à la déviation. En mesurant la capacité non déviée, la capacité à une déviation connue et la tension de polarisation, il était élémentaire de calibrer ensuite la sortie électrique du microphone sur la déviation du diaphragme.

Mais comment Wente a-t-il fait dévier le diaphragme pour l'étalonnage ? Son premier effort a utilisé une fermeture sur le microphone avec un petit cylindre et un piston faisant face au diaphragme. Un moteur rotatif entraînait le piston sur une longueur de course connue. Malheureusement, le calibreur mécanique ne fonctionnait qu'à de très basses fréquences.

Pour les fréquences plus élevées, il utilisa la troisième de nos quatre inventions : le thermophone, conçu à peu près à la même époque par Harold D. Arnold (1883-1933) et Irving B. Crandall (1890-1927). Le thermophone utilisait deux bandes de feuille d'or qui vibraient lorsque des courants électriques leur étaient appliqués. Pour étendre les hautes fréquences disponibles à partir du thermophone, un flux d'hydrogène a été introduit dans le microphone.

La quatrième invention était peut-être la plus critique. Pour amplifier la sortie du microphone de mesure, un tube à vide a été utilisé - nous examinerons cet élément crucial plus en détail.

Thomas Edison avait découvert ce qui est devenu connu sous le nom d'effet Edison en 1883, grâce à son étude du noircissement se produisant à l'intérieur des ampoules à incandescence. En 1904, John A. Fleming (1849-1934), un employé britannique de la société Marconi (et anciennement de la société britannique Edison), a utilisé l'effet Edison pour créer la valve oscillante : une diode à tube à vide.

Le 9 décembre 1905, Lee de Forest (1873-1961) dépose un brevet sur la triode à tube à vide, que son assistant Clifford D. Babcock avait baptisée audion. En ajoutant une grille à l'appareil de Fleming, de Forest, pour la première fois, pourrait fournir une amplification électronique du signal. En 1912, à Palo Alto, en Californie, de Forest a développé un amplificateur à trois audios capable d'augmenter les signaux audio-fréquence d'environ 120x. Il a passé près d'un an à négocier avec AT&T pour vendre l'audion, ce qu'il a finalement fait en juillet 1913.

Edwin Howard Armstrong (1890-1954) a démontré au début de 1913 que la puissance d'amplification de l'audion était considérablement augmentée lorsqu'une partie de sa sortie était renvoyée à l'entrée. Cette technique régénérative a fait l'objet d'un litige ruineux poursuivi comme une sainte croisade par les deux parties jusqu'en 1934, lorsque la Cour suprême des États-Unis a finalement statué que de Forest était le propriétaire du brevet. Néanmoins, AT&T s'est empressé d'appliquer l'audion partout où il le pouvait et, en 1915, a réalisé une transmission téléphonique d'un océan à l'autre à l'aide d'un amplificateur audion. De plus, ils ont pu diffuser à partir d'un émetteur radio à Arlington, Viginia, en utilisant 500 audions.

En 1917, AT&T a produit un sonomètre qui, avec ses nombreux successeurs, était physiquement énorme. En fait, ces appareils étaient si encombrants qu'en 1988, Leo Beranek (né en 1914), dans une révision de son livre classique [2], décrivait leurs accessoires essentiels comme « un dos solide ou une table à roulettes ». En utilisant les normes d'aujourd'hui, sa précision n'était pas seulement discutable, elle était transitoire.

C'était pourtant la voie que les instruments de mesure acoustique allaient évoluer à partir de ce moment. En 1947, John Bardeen (1908-1991), Walter Brattain (1902-1987) et William Shockley (1910-1989) ont développé le transistor, et peu de temps après, les talents d'haltérophile de l'ingénieur de mesure n'étaient plus nécessaires.

La chambre anéchoïque
Jusqu'au début des années 1920, la grande majorité des mesures acoustiques étaient effectuées à l'extérieur pour éviter la pollution des données par les réflexions artificielles de l'environnement de mesure.

Les chercheurs et les scientifiques travaillant aux laboratoires Bell au milieu des années 1920 avaient entrepris de construire une installation intérieure pour atténuer ces problèmes. Un certain nombre de références plutôt vagues et obliques aux "chambres de mesure bien amorties" sont apparues dans plusieurs publications de Bell à partir de 1924 et refait surface occasionnellement jusqu'en 1936. Cette année-là, E. H. Bedell a finalement publié un article dans le Journal technique du système Bell décrivant les coins d'une sorte de fuzz dans une ancienne chambre forte dont les sons et vibrations extérieurs étaient exclus. Bien qu'il n'y ait aucune preuve absolue pour étayer la théorie, le manque de références publiées et les descripteurs vagues utilisés pourraient laisser penser que ces inventeurs ont joué avec l'idée de garder la chambre anéchoïque un secret commercial, leur permettant de poursuivre la collecte de données et le développement de produits avec installations disponibles pour personne d'autre.

Ce que tout cela signifie
Bien que la longue quête à la recherche d'une mesure fiable ait été le bénéficiaire d'un certain nombre d'accidents heureux et de connexions fortuites, comme de nombreuses entreprises humaines, elle a également été remplie de trahisons et de controverses en colère.Par exemple, Flamsteed et Halley se sont éloignés de Newton après qu'il ait rejeté de manière caustique et sans cérémonie leurs mesures comme étant bâclées, puis falsifié sa théorie pour qu'elle corresponde à des mesures similaires qui ne pouvaient être niées.

de Forest, le fils athée d'un ministre, a été à plusieurs reprises présenté par ses collègues scientifiques et les médias comme un auto-promoteur contradictoire, un escroc des actions inculpé et un aspirant inventeur-boucanier. L'histoire le trouve, diversement, le seul véritable générateur de toutes les idées autour de lui, ou bien un petit crapaud venimeux qui a volé toutes les idées qu'il a vues. Même son nom de famille était une affectation de jeunesse : le « minuscule » a été inventé à partir d'un nom de famille de De Forest.
Au cours de leur long litige, de Forest et Armstrong ont produit des centaines de pages de témoignages et de demandes reconventionnelles les plus virulents et scandaleux.

Edison et Berliner ont fini par devenir des ennemis acharnés, et les sociétés qui leur ont succédé ont dépensé d'énormes fortunes pour essayer de s'écraser l'une l'autre.

Notre époque a commencé à suivre un chemin similaire, car nous avons ajouté une autre invention à l'instrumentation acoustique : l'ordinateur. Le manque de confiance que beaucoup ont dans le monde microscopique des mesures assistées par ordinateur crée une bifurcation qui pourrait bien une fois de plus provoquer acrimonie et stagnation.

Il devient de plus en plus évident qu'un écart important existe entre ceux qui font confiance aux mesures scientifiques et ceux qui font confiance à leurs oreilles. Certains vivraient et mourraient par les chiffres seuls. D'autres seraient aussi vite sourds que de juger les caractéristiques du système acoustique et audio par les seules variables jugées quantifiables par les seules mesures acceptées.

Essentiellement, ces deux religions sont séparées par un mur de mathématiques. Ceux qui souscrivent à la vision objective de l'univers exigent généralement que pour quantifier une variable, des mesures mathématiquement exactes, reproductibles et précises de paramètres définis doivent être effectuées. Les appareils électriques et électroniques sont les instruments par lesquels ces informations objectives peuvent être collectées. Si elles ne peuvent pas être mesurées ou post-traitées, la probabilité que les « informations » soient d'une quelconque utilité est, selon ces normes, minime.

D'autre part, les membres de l'académie subjective soutiennent farouchement et bruyamment leur affirmation selon laquelle, outre les mesures, il faut également inclure des descriptions de sons formulées en termes qui illustrent ou verbalisent les phénomènes sonores ou acoustiques et transmettent efficacement ces sensations perçues aux non-participants.
Le point d'appui de ce débat est de savoir comment décrire mathématiquement et statistiquement les descriptions subjectives souvent nébuleuses ou quelque peu individualisées, tout en maintenant une base scientifiquement quantifiée valable pour la mesure tout en rendant hommage à «l'art du son».

C'est rapidement devenu un numéro de jonglerie complexe.

Le problème est apparu parce qu'il y a un certain nombre de professionnels qui pensent que nous devons être beaucoup plus prudents dans l'acceptation de la progéniture de nos microprocesseurs. Le problème est que tout système informatisé, exécutant n'importe quel logiciel ou générant toutes les mesures que nous sommes susceptibles de vouloir ou d'avoir besoin, est un système à forte intensité numérique. Il vit et respire chiffre après chiffre, mais il ne les connaît pas. Il ne peut pas vous dire que ces chiffres sont justes et ceux qui sont faux, il s'arrête simplement jusqu'à ce qu'une réponse apparaisse.

Le camp subjectif souligne à juste titre qu'il y a toujours et qu'il y aura probablement toujours un facteur subjectif dans tous ces trucs audio.

Nous avons des ordinateurs qui prennent des mesures et les transmettent à d'autres ordinateurs avec peu ou pas de surveillance humaine. Nous sommes hypnotisés par notre capacité à plonger dans les moindres détails, mais nous pouvons facilement passer à côté de l'évidence.

Pour paraphraser le célèbre physicien nucléaire Wolfgang Pauli (1900-1958), la technologie de mesure au 20e siècle est devenue presque comme aller dans le meilleur restaurant français du monde et être obligé de manger le menu.

Richard C. Heyser (1931-1987), architecte de la spectrométrie à retardement et fondateur de l'école moderne des mesures audio basées sur les mathématiques, a offert sa sagesse à ce sujet [3] : « Tout système audio peut être complètement mesuré par réponse impulsionnelle. , une réponse en fréquence en régime permanent ou des variations sélectionnées de celles-ci telles que les ondes carrées, les tonalités ou les impulsions formées… [cependant, ces] mesures resteront malheureusement toujours inintelligibles pour l'utilisateur non technique des systèmes audio. … La difficulté ne réside pas dans l'utilisateur, mais dans les équations et la méthode de test, car celles-ci n'utilisent pas les bonnes coordonnées de description pour l'identification humaine. … [Nous] ne devrions pas nous attendre à ce qu'une mesure audio unidimensionnelle soit significative pour représenter une image sonore, pas plus que [nous] pourrions nous attendre à ce qu'un critique d'art apprécie une peinture efficacement codée et dessinée sur une ficelle. Il a ajouté : « Un fait de bon sens doit être gardé à l'esprit : les manifestations électriques et acoustiques de l'audio sont ce qui est réel. Les mathématiques (et leurs implémentations) sont au mieux une simulation détaillée que nous choisissons d'utiliser pour modéliser et prédire nos observations du monde réel. Nous ne devrions pas être tellement impressionnés par un ensemble d'équations (ou un format ou une méthode de mesure) que nous supposons que l'univers doit également résoudre ces équations ou regarder les choses de cette manière particulière, pour fonctionner. Ce n'est pas le cas.”

Les remarques prémonitoires de Heyser, faites il y a quatre décennies, sont toujours valables, peut-être encore plus compte tenu des progrès du matériel de mesure et des mathématiques qui le permettent. En commençant par le calcul d'il y a longtemps, nous avons avancé, bien que parfois de manière hésitante, jusqu'à ce que le 21e siècle s'ouvre, nous avons atteint un niveau de technologie de mesure qui nous permet d'examiner, de quantifier et soi-disant d'analyser ce que certains individus pratiques ont surnommé &# 8220minutie audio.”

En moins de 300 ans, le son est passé d'une théorie mathématique et scientifique à une quantité tangible que nous pouvons mesurer aussi précisément, et parfois plus facilement, que la tension ou la résistance.

Il est crucial de se rappeler, alors que nous gravissons de plus en plus l'échelle des capacités de mesure, deux faits essentiels :

Premièrement, c'est l'oreille non critique et non entraînée qui finance l'industrie audio. Tous nos clients, et dans de nombreux cas nous-mêmes, se moquons peu de ce que disent les instruments : en fin de compte, nous devons tous fonder nos jugements critiques entièrement sur ce que nous entendons. Ce scellement psychoacoustique forcé de ce qui est et n'est pas du bon son nous amène à :

Deuxièmement, l'outil de mesure le meilleur et le plus précis disponible est gratuit, et il est situé de chaque côté de votre tête. Il ne sert à rien de mesurer et de quantifier le système au nième degré si vos oreilles vous disent qu'il sonne toujours mal.

Dans l'article cité ci-dessus, Heyser a également déclaré : « Il est… parfaitement plausible de s'attendre à ce qu'un système qui a une « meilleure réponse en fréquence » puisse en fait sonner pire simplement parce que les coordonnées de… la mesure ne sont pas celles de la perception subjective. .”

Tout cela se résume à certaines réalités critiques :

1. La capacité de mesurer quelque chose ne s'accompagne pas automatiquement de la capacité de comprendre le sens de la mesure par rapport à la perception auditive.

2. Les machines et les microphones n'entendent pas de la même manière que les humains.

3. Le système oreille-cerveau effectue une analyse subjective. C'est aussi un système dans lequel le “code” utilisé pour traiter l'information est encore peu compris et fait l'objet de nombreux mythes.

4. Ce n'est pas parce que nous pouvons quantifier un paramètre que nous avons besoin ou que nous pouvons utiliser efficacement ces données.

5. Malgré son manque de faits scientifiquement acceptables et de formules mathématiquement correctes, l'analyse subjective de la qualité acoustique ou audio perçue est toujours le système de mesure que la plupart des habitants sensibles de cette planète acceptent et comprennent.

Bien que notre matériel ait évolué à travers les siècles, l'utilisateur est toujours une entité biologique qui voit des objets dans l'espace et entend des événements dans le temps. Le matériel de mesure entend le son sous forme d'ondes, pas d'événements. Il est essentiel de comprendre cette distinction, car elle se concentre sur la différence essentielle entre les systèmes purement logiques et ceux opérant dans le domaine biologique.

Le même argument subjectif-objectif a été avancé sur les tubes triodes par rapport aux tubes pentodes, puis plus tard sur les tubes contre les transistors. Comme cela a été justement noté [16], les arguments d'aujourd'hui sur la distorsion, sa nature, sa définition, son audibilité et sa mesure persistent. D'après certains des arguments avancés, ce sujet ne sera pas résolu de sitôt.”

Il est essentiel que les praticiens professionnels comprennent que bien que les mesures objectives fournissent des données scientifiquement valides, parfaitement reproductibles et doivent faire partie intégrante de la science du son, les appareils testés seront finalement utilisés par des êtres humains et non par des machines. Ainsi, il incombe également à tous d'accepter comme également valables les jugements subjectifs quelque peu moins scientifiques. Après tout, ce sont les systèmes d'évaluation de la qualité biologique qui seront le juge final de notre succès ou de notre échec !

Bibliographie
[1] Ampel, Fred et Ted Uzzle, “La qualité de la quantification,” Proc. Inst. Acoust., v13 Partie 7, pp47-56, 1991.
[2] Beranek, Leo Leslie, Acoustic Measurements, deuxième édition, American Institute of Physics, 1988.
[3] de Forest, Lee, “The Audion Detector And Amplifier,” Inst. Radio Ing. Proc. v2, pp15-36, 1914.
[4] Heyser, Richard L., “The Delay Plane, Objective Analysis Of Subjective Properties: part I,” Jour. Ing. audio Soc., v21n9, pp690-701, novembre 1973.
[5] Hunt, Frederick V., Electroacoustics, American Institute of Physics, 1982 (réimpression de l'édition 1954).
[6] Hunt, Frederick V., Origins in Acoustics, Yale Univ. Presse, 1978.
[7] Lewis, Tom, Empire of the Air, Harper-Collins, 1991.
[8] Lindsay, R. Bruce, “Historical Introduction” to Rayleigh, Theory of Sound, Dover, v1, ppv-xxxii, 1945.
[9] Miller, Harry B., éditeur, Acoustical Measurements, Methods and Instrumentation, Benchmark Papers in Acoustics v16, Hutchinson Ross, 1982.
[10] Newton, Isaac, Principia Mathematica, Univ. of California Press, 1966. Sa dérivation de la vitesse du son se trouve dans le livre Proposition XLIX, pp379-381.
[11] Read, Oliver et Walter L. Welsh, From Tin Foil to Stereo, deuxième édition, Howard W. Sams, 1976.
[12] Strutt, M. J. O., “Raumakustik,” Handbuck der Experimentalphysik, v17n2, pp443-512, 1934.
[13] Tyndall, John, Sound, Greenwood, 1969 (réimpression de l'édition 1903).
[14] Uzzle, Ted, “Quand les films ont appris à parler, partie 2,” Boxoffice, v128n5, pp22-23, mai 1992.
[15] Uzzle, Ted et Fred Ampel, “A Brief History Of Acoustical Measurements,” Sound & Video Contractor, v10n5, pp14-22, mai 1992.
[16] von Recklinghausen, Daniel R., “Electronic Home Music Reproduction Equipment,” Jour. Ing. audio Soc., v25n10/11, pp759-771, octobre/novembre 1977.


Une perspective historique

L'évolution de la médecine de soins intensifs est retracée par rapport à ses prédécesseurs, à savoir les soins intensifs et la thérapie intensive. Ce commentaire documente les premiers soins physiques prodigués par les infirmières professionnelles dans les hôpitaux du 19e siècle dans des endroits proches des postes de soins infirmiers. Le développement d'incubateurs pour nouveau-nés et d'appareils de survie pour soutenir la ventilation et la fonction rénale ou pour inverser les arythmies mortelles a caractérisé la thérapie intensive du début du 20e siècle. Au cours des 50 dernières années, les soins intensifs ont évolué vers une surveillance complète, en grande partie électronique, et des mesures de laboratoire automatisées pour guider le traitement intensif des défaillances multiviscérales par des médecins de soins intensifs et des infirmières spécialisées, des pharmaciens et des inhalothérapeutes à l'aide de plusieurs méthodologies et dispositifs de réanimation.

Les efforts pour retracer l'histoire des soins intensifs, de la thérapie intensive et des soins intensifs ont mis en évidence une diversité d'événements, et les auteurs ont attribué un nombre comparable d'individus inventifs à qui la filiation est attribuée. Cette histoire a été largement référencée et n'est donc pas récitée en détail (1-6). Les soins intensifs en tant que discipline spécialisée dans les pays développés sont devenus étonnamment rapidement reconnus et officiellement établis aux États-Unis en tant que sous-spécialité certifiée en moins de 20 ans. Cependant, à notre avis, ses origines sont mieux retracées aux noms d'unités hospitalières qui se chevauchent et sont actuellement interchangeables, à savoir les soins intensifs, la thérapie intensive et les soins intensifs.

L'innovation consistant à créer une zone séparée à proximité du poste de soins infirmiers pour les soldats britanniques blessés au combat pendant la guerre de Crimée des années 1850, en particulier pour les soins infirmiers de surveillance après des blessures de combat majeures et des interventions chirurgicales, est attribuée à Florence Nightingale. Ceci est le plus souvent cité comme un début de soins intensifs. Avec l'expansion des grands services hospitaliers et la rareté des lits semi-privés et privés à la fin du 19e et dans la première moitié du 20e siècle, les patients les plus gravement malades étaient séparés dans des lits semi-privés et privés, souvent sous les soins d'infirmières spécialisées. Dès 1927, le Dr Walter Dandy, élève de Harvey Cushing et célèbre successeur à part entière, a cherché à améliorer les soins postopératoires des patients en neurochirurgie. Il a organisé un site séparé et défini à l'hôpital Johns Hopkins de Baltimore pour ses patients postopératoires. Ce concept de sites spécialisés pour la prise en charge des patients dans l'intervalle postopératoire à haut risque s'est rapidement développé, en particulier pendant la Seconde Guerre mondiale, lorsque l'observation postopératoire et les unités dites de choc ont évolué pour les premiers soins des blessés graves.

Dans chacun de ces sites postopératoires et postanesthésiques, l'accent principal était mis sur les soins avec des interventions vitales basées en grande partie sur les signes vitaux, principalement par des infirmières professionnelles. Les infirmières ont été formées pour mettre en œuvre les routines établies par les chirurgiens et plus tard par les anesthésistes pendant l'intervalle postopératoire précoce à haut risque. Bien que ces unités d'observation postopératoire n'aient été dotées que d'une partie de la journée, généralement jusqu'à 8 heures, la durée croissante des opérations chirurgicales et le besoin perçu d'observation et de soins postopératoires spécialisés ont augmenté parallèlement à l'invasivité croissante des opérations chirurgicales. Pourtant, au cours de la première moitié du 20e siècle, à l'exception de la gestion postopératoire et post-anesthésie, il n'y avait généralement aucune disposition spéciale pour les patients médicaux gravement malades.

Les dispositions pour la prise en charge des patients les plus malades étaient également dictées par des priorités économiques et sociales. En raison du coût croissant des soins infirmiers dédiés pour un ou deux patients seulement, les hôpitaux ont encouragé l'utilisation de soins infirmiers privés, généralement dans des chambres privées ou semi-privées, payées par le patient ou sa famille. Les patients des services qui étaient les plus gravement malades, en particulier lorsqu'il y avait un risque de décès prématuré, étaient systématiquement transférés dans des chambres latérales, une «salle de service» pour les soins terminaux. Cela a minimisé l'impact négatif sur les patients des services modérément malades qui occupaient jusqu'à 40 lits contigus (4).

Les unités de récupération de la Seconde Guerre mondiale et les zones de récupération des hôpitaux civils jusqu'à la fin des années 1950 avaient peu ou pas d'équipement spécialisé, pas même les moniteurs primitifs qui ont été utilisés dans le cadre des pratiques d'anesthésie en salle d'opération au cours de cette décennie. Jusque dans les années 1950, les unités de soins intensifs étaient donc des sites physiques qui accueillaient principalement des patients postopératoires pour des soins spéciaux et personnalisés, des hébergements stratégiquement et économiquement avantageux à une époque où une grande partie des soins était dispensée dans de grands services hospitaliers.

Le deuxième point de repère le plus souvent cité représentait les unités de thérapie intensive. Cette ère a commencé dans les années 1940 en réponse à des avancées majeures dans des technologies médicales spécifiques qui sauvent des vies. Ces unités ont fourni des dispositifs et des techniques qui ont été inventés et mis en œuvre pour compenser la défaillance d'un système d'organe unique. Les plus importants parmi ceux-ci étaient les méthodes et les dispositifs mécaniques permettant de sécuriser les voies respiratoires et de maintenir les échanges gazeux respiratoires. La trachéotomie était devenue une intervention de routine pour sécuriser les voies respiratoires bien avant les épidémies de poliomyélite, qui étaient particulièrement graves aux États-Unis en 1948 et plus tard au Danemark en 1952. Les patients atteints de poliomyélite bulbaire et de paralysie respiratoire étaient ventilés dans des « poumons de fer » de Drinker-Shaw. et avec des cuirasses de poitrine. Lorsque les hôpitaux étaient submergés par le grand nombre de victimes de la poliomyélite paralysées, les patients subissaient des trachéotomies et étaient ventilés manuellement par des étudiants en médecine. Ces interventions étaient les prédécesseurs de l'intubation endotrachéale hors salle d'opération et de la ventilation mécanique. Les ventilateurs à piston, développés par Morch, ont été suivis par les vannes à pression positive intermittente Bennett et Bird et le ventilateur Emerson « autocuiseur ». Dans les années 1960, l'Engstrom était le premier ventilateur disponible dans le commerce capable de contrôler séparément les pressions et les débits inspiratoires et expiratoires. Les anesthésistes spécialisés étaient responsables de la ventilation artificielle en tant qu'extension de leurs compétences en salle d'opération, avec l'instrumentation des voies respiratoires et le maintien de la ventilation pendant l'anesthésie et le bloc neuromusculaire (6, 7). Pendant le conflit du Vietnam, le syndrome de détresse respiratoire aiguë était une complication majeure des traumatismes sur le champ de bataille (8, 9), et les chirurgiens et anesthésistes militaires ont utilisé les techniques les plus avancées d'intubation des voies respiratoires et d'utilisation de la ventilation mécanique pour soutenir les soldats et les civils.

Plusieurs autres dispositifs spécialisés pour le traitement des défaillances d'un seul organe comprenaient le traitement de l'insuffisance rénale avec des appareils de dialyse introduits par le physiologiste néerlandais Kolff en 1943. Pendant la guerre de Corée de 1952 à 1953, l'hantavirus transmis par le rat a infecté des soldats et des civils, produisant une fièvre hémorragique. C'était une cause majeure d'insuffisance rénale. L'hémodialyse a sauvé des vies (10). Les défibrillateurs électriques à courant alternatif, qui à des fins pratiques n'ont évolué que dans les années 1950, ont servi de dispositifs de réanimation primaires pour les soins coronariens mobiles et hospitaliers. Conjointement avec la stimulation cardiaque transveineuse, ceux-ci ont entraîné l'expansion des unités de soins cardiaques (coronaires). L'invention des incubateurs pour la gestion des nouveau-nés prématurés est attribuée au médecin français Stéphane Tarnier en 1880, mais a été cliniquement mise en œuvre avec l'assistance respiratoire et la gestion nutritionnelle en 1922 par Julius Hess. Cela a entraîné l'expansion relativement large des pouponnières dans les hôpitaux en tant que prédécesseur des unités de soins intensifs néonatals (11).

Chacun de ces sites était donc destiné aux soins infirmiers en soins intensifs avec des interventions comprenant des dispositifs de prise en charge d'un seul système organique. Les moniteurs actuellement utilisés, à l'exception de ceux qui étaient physiquement intégrés dans les dispositifs de survie à un seul organe, n'étaient pas encore disponibles.Cela contrastait avec la surveillance cardiopulmonaire complète actuelle des patients présentant des défaillances multiviscérales, y compris les alarmes et la préparation aux interventions multisystémiques. La thérapie intensive a donc évolué à partir des soins intensifs dans le contexte d'un site physique pour la gestion d'une défaillance d'un organe spécifique sans moniteurs complets ou autres dispositifs de survie. En conséquence, les dispositions pour la surveillance et l'intervention pour une diversité de maladies mortelles immédiates, et en particulier pour les patients atteints de défaillances multiviscérales, faisaient défaut.

Un petit hôpital communautaire du New Jersey a affirmé en 1954 qu'il était le premier hôpital des États-Unis à mettre en place une unité de soins intensifs moderne. Pourtant, jusqu'en 1960, ce même hôpital n'avait qu'un seul prototype de moniteur et un défibrillateur AC desservant tous les lits d'hôpitaux (12). C'est dans cette mesure que les sites de soins intensifs et plus tard de thérapies intensives manquaient non seulement de réanimation multi-systèmes, mais également d'instruments de surveillance, de mesures et d'alarmes en temps réel qui caractérisent les pratiques actuelles de médecine de soins intensifs. À l'ère actuelle, plusieurs moniteurs hémodynamiques, respiratoires et métaboliques sont complétés par des mesures de laboratoire STAT (13). À partir de la fin des années 1950, la thérapie titrée était en réponse à des mesures cardiorespiratoires et métaboliques qui indiquaient une menace pour la vie. Les priorités d'intervention étaient multisystémiques et caractérisées par un acronyme assez largement repris par nos stagiaires (14). L'ordre de priorité de sauvetage était VIP. V était d'assurer la ventilation et les échanges gazeux respiratoires. Le I était pour la perfusion, pour garantir l'adéquation du volume intravasculaire. Le P était pour la pompe, l'adéquation du débit cardiaque et des flux sanguins systémiques. Les mesures avec traitement numérique des données facilitent l'interprétation. À leur tour, les données ont incité une thérapie intensive à l'aide de méthodologies et de dispositifs de soutien multi-organes.

Par conséquent, la troisième et actuelle ère de la médecine de soins intensifs a évolué à partir des soins intensifs de l'ère Nightingale. La thérapie intensive était en grande partie un développement du 20e siècle aux États-Unis et en Europe occidentale, de manière assez sélective à l'appui de systèmes à un seul organe pour l'échec de la ventilation ou de la fonction rénale et le contrôle des rythmes cardiaques potentiellement mortels. À la fin des années 1950 et au début des années 1960, l'ère actuelle des soins intensifs a commencé avec une surveillance automatisée des signes vitaux avec des alarmes et s'est rapidement étendue pour permettre des mesures supplémentaires et affinées de l'état du patient. Initialement, les moniteurs largement analogiques ont rapidement cédé la place aux affichages et alarmes numériques de l'ère actuelle, avec les systèmes informatiques modernes (14). Les mesures respiratoires et hémodynamiques ont été complétées par des mesures en laboratoire des gaz du sang, des analyses chimiques du sang de routine et de nouvelles mesures, y compris les enzymes cardiaques et le lactate sanguin, initialement dans les laboratoires STAT et plus tard avec les analyseurs multiparamétriques actuels au point de service. Sur la base de mesures avec alarmes prioritaires, le clinicien de chevet a donc été guidé pour intervenir rapidement avec une thérapie titrée, de manière à éviter une détérioration physiologique et une menace immédiate de vie.

La majorité des médecins et chirurgiens des années 1960 et 1970 n'étaient naturellement ni au courant ni à l'aise avec la formidable nouvelle technologie de soins intensifs au chevet du patient, ni avec les dispositifs intravasculaires de plus en plus invasifs. Les médecins et les chirurgiens n'avaient donc guère d'autre choix que d'abandonner ou au moins de partager la responsabilité du diagnostic et de la prise en charge des patients gravement malades avec un nouveau cadre de médecins, chirurgiens et anesthésistes qui étaient les premiers intensivistes. Ce sont les médecins, les infirmières spécialisées, les inhalothérapeutes et plus tard les pharmaciens cliniciens qui sont devenus les équipes de soins intensifs d'aujourd'hui. Au cours des années qui ont suivi, des spécialistes en médecine interne et en particulier des pneumologues, des chirurgiens (en particulier des chirurgiens traumatologues) et des anesthésistes ont été attirés et plus tard certifiés dans la surspécialité aux États-Unis. Dans les pays européens et en Australie, les anesthésistes ont plus souvent pris les devants en maîtrisant à la fois la biomédecine et la biotechnologie des soins intensifs, mais les intensivistes et en particulier les pneumologues représentent désormais la majorité des médecins aux États-Unis.

En conséquence, c'est la technologie, et en particulier les moniteurs et les mesures, qui se sont de plus en plus distingués de leurs prédécesseurs en soins intensifs et en thérapie intensive. Ils facilitent le diagnostic rapide au chevet du patient et les interventions dans les situations de défaillance multiviscérale, telles que la septicémie et le choc septique. En fait, ces pratiques ont été modélisées pour la première fois par notre groupe à l'Université de Californie du Sud à Los Angeles à partir de 1959. L'inventaire de base des mesures comprenait non seulement les signes vitaux conventionnels de l'ère précédente (pression intra-artérielle mesurée directement, fréquence cardiaque, fréquence et régularité, et température corporelle) mais aussi la pression veineuse centrale, les temps de circulation et le débit cardiaque, le tout complété par les résultats obtenus dans un laboratoire STAT sur place (15). C'est en 1959 que la première unité de soins intensifs moderne a vu le jour à l'Université de Pittsburgh, dirigée par le regretté Dr Peter Safar. Les deux centres ont instauré la présence à temps plein de médecins spécialisés en soins intensifs dûment formés dans les unités. Les unités de Pittsburgh et de Los Angeles ont servi de chefs de file dans le lancement des premiers programmes de formation de sous-spécialité en médecine de soins intensifs et nombre de leurs diplômés sont devenus les premiers chefs de file dans le monde entier. Au début des années 1960, le Dr William Shoemaker, un étudiant du célèbre physiologiste chirurgical, le Dr Francis Moore, a dirigé les soins intensifs chirurgicaux lorsqu'il a organisé la première unité de traumatologie à l'hôpital du comté de Cook à Chicago.

Nous avons parcouru un long chemin depuis la mort de George Washington en 1802, qui était aux soins des médecins les plus respectés de l'époque. Ces médecins n'étaient guidés que par une compréhension minimale de la physiologie clinique respiratoire et cardiovasculaire et n'ont pas réussi à se mettre d'accord sur une trachéotomie pour surmonter l'asphyxie probablement causée par l'épiglottite (16). Au lieu de cela, les médecins ont utilisé un traitement conventionnel, en particulier la saignée, encouragé par le général Washington lui-même. Le serviteur de Washington et ses médecins ont prélevé plus de la moitié du volume sanguin du général Washington par hémorragie, ce qui a entraîné une mort combinée respiratoire et cardiovasculaire.

En citant cette histoire, nous retraçons donc les évolutions des Soins Intensifs en tant que lieu ou site, et de la Thérapie Intensive en tant que support mono-système et surtout ventilation. Les techniques de médecine de soins intensifs ont été étendues pour inclure non seulement les unités hospitalières conventionnelles, mais également les services d'urgence et même les fournisseurs de soins médicaux d'urgence extra-hospitaliers dans les ambulances et les avions dans lesquels des moniteurs de soins intensifs, des mesures et des dispositifs de survie fournissent des soins. avant l'admission à l'hôpital. Même si les trois termes, soins intensifs, thérapie intensive et soins intensifs, sont toujours utilisés de manière interchangeable, à notre avis, ils retracent l'histoire de la médecine de soins intensifs.


PIB : une brève histoire

Du carnage de la Grande Dépression et de la Seconde Guerre mondiale est née l'idée du produit intérieur brut, ou PIB : la mesure ultime du bien-être global d'un pays, une fenêtre sur l'âme d'une économie, la statistique pour mettre fin à toutes les statistiques. Son utilisation s'est répandue rapidement, devenant l'indicateur déterminant du siècle dernier. Mais dans le monde globalisé d'aujourd'hui, il est de plus en plus évident que cette métrique lauréate du prix Nobel est trop étroite pour ces temps économiques troublés.

Du carnage de la Grande Dépression et de la Seconde Guerre mondiale est née l'idée du produit intérieur brut, ou PIB : la mesure ultime du bien-être global d'un pays, une fenêtre sur l'âme d'une économie, la statistique pour mettre fin à toutes les statistiques. Son utilisation s'est répandue rapidement, devenant l'indicateur déterminant du siècle dernier. Mais dans le monde globalisé d'aujourd'hui, il est de plus en plus évident que cette métrique lauréate du prix Nobel est trop étroite pour ces temps économiques troublés.

1937: Simon Kuznets, économiste au National Bureau of Economic Research, présente la formulation originale du produit intérieur brut dans son rapport au Congrès américain, « Revenu national, 1929-35. » Son idée est de capturer toute la production économique par les individus, entreprises, et le gouvernement dans une seule mesure, qui devrait augmenter dans les bons moments et baisser dans les mauvais. Le PIB est né.

1944: Suivant le Conférence de Bretton Woods qui ont établi des institutions financières internationales telles que la Banque mondiale et le Fonds monétaire international, le PIB devient l'outil standard pour évaluer l'économie d'un pays.

1959: Économiste Moïse Abramovitz devient l'un des premiers à se demander si le PIB mesure avec précision le bien-être global d'une société. Il avertit que « nous devons être très sceptiques quant à l'idée que les changements à long terme du taux de croissance du bien-être peuvent être évalués même grossièrement à partir des changements du taux de croissance de la production ».

1962: Mais les évangélistes du PIB règnent. Arthur Okun, économiste du Conseil des conseillers économiques du président américain John F. Kennedy, invente la loi d'Okun, qui stipule que pour chaque augmentation de 3 points du PIB, le chômage baissera de 1 point de pourcentage. La théorie éclaire la politique monétaire : continuez à faire croître l'économie, et tout ira bien.

Alfred Eisenstaedt/Time&Life Pictures/Getty Images

1972: Après avoir été nommé roi du Bhoutan, Jigme Singye Wangchuck déclare que son objectif n'est pas d'augmenter le PIB, mais le GNH — “le bonheur national brut.”

Juin 1978 : Écrire en Grande-Bretagne La revue économique, Irving B. Kravis, Alan W. Heston, et Robert Summers compiler les premières estimations du PIB par habitant dans le monde, avec des chiffres pour plus de 100 pays.

Marie-France Rouze/AFP/Getty Images

1990: Les Nations Unies lancent l'Indice de développement humain, qui mesure des facteurs tels que l'éducation, l'égalité des sexes et la santé. économiste de l'ONU Mahbub ul Haq convainc le futur lauréat du prix Nobel Amartya Sen pour créer "un indice aussi vulgaire que le PIB mais plus pertinent pour nos propres vies", comme s'en souvient Sen.

7 décembre 1999 : Les Etats Unis. département du Commerce déclare le PIB “une des grandes inventions du 20e siècle.”

2001: L'éclatement de la bulle technologique et les attentats du 11 septembre plongent l'économie américaine dans une vrille temporaire. Au cours de la reprise qui a suivi, quelque chose d'inattendu se produit : bien que le PIB augmente entre 2002 et 2006, les revenus personnels diminuent.

Septembre 2006 : La Chine crée un nouvel indice pour “PIB vert” — une mesure de la production économique nationale qui prend en considération les facteurs environnementaux. Le premier rapport constate que les dommages environnementaux, s'ils avaient été pris en compte, auraient réduit de 3 % le PIB de la Chine en 2004.

Manpreet Romana/AFP/Getty Images

2008: Le gouvernement américain commence à financer le État des États-Unis projet, conçu pour créer un « système d'indicateurs nationaux clés » avec des centaines de nouveaux points de données pour ajouter des nuances aux statistiques standard du PIB.

14 septembre 2009 : Le gouvernement français publie un rapport, co-écrit par un économiste lauréat du prix Nobel Joseph Stiglitz, qui appelle à la fin du "fétichisme du PIB".

15 novembre 2010 : Premier ministre britannique David CameronLe gouvernement annonce qu'il va, pour la première fois, enquêter sur le bonheur en plus d'autres mesures économiques. Qui aurait cru que l'austérité serait si chaleureuse et floue ?


Qui a inventé la notation musicale ?

Cher Straight Dope:

Qui a inventé la notation qui est utilisée sur les partitions aujourd'hui et comment cette notation a-t-elle changé dans le temps pour savoir qui a le premier créé un moyen d'écrire de la musique ?

Stewart Scott

SDStaff Nate Wooley répond :

Ah oui. La question que se sont posées des hordes d'enfants de huit ans forcés d'apprendre la trompette : « Qu'est-ce que c'est que ça ? Auraient-ils pu compliquer la lecture de la musique ? Je parle d'expérience ici, Stewart.

La notation musicale occidentale est un système en évolution qui remonte au moins à la Grèce et à Rome. L'écrivain et homme d'État romain Boèce a attribué 15 lettres à 2 octaves de tons vers 500 après JC. Le fait que Boèce ait été exécuté plus tard pour trahison n'a aucun rapport, j'en suis certain.

Même si le développeur du système des lettres en tant que hauteurs était un Romain, la plupart des nations d'Europe utilisent maintenant le système « tonique sol fa » rendu célèbre en Le son de la musique. Le sol fa tonique a été introduit par un moine nommé Guido d'Arezzo vers 1000 après JC et a utilisé les sons "Ut Re Mi Fa Sol La Si" pour représenter les hauteurs dans une octave. « Ut » a ensuite été changé en Italie en « Do » (pour Dominus) afin que Dieu puisse être le début de la gamme musicale. "Si" a été changé dans les années 1800 en "Te" afin que chaque note commence par une lettre unique.

Alors que tout le monde connaît le do-re-mi, la méthode la plus largement utilisée pour nommer les notes dans le monde anglophone est une version mise à jour de l'ancien système romain, avec les sept premières lettres de l'alphabet, A à G, représentant le hauteurs d'une octave. Pour le meilleur ou pour le pire, cela rend possible les mnémoniques «Every Good Boy Does Fine» et «All Cows Eat Grass», qui aident les enfants à mémoriser les notes sur les lignes de la clé de sol et les espaces de la clé de fa, respectivement.

Hum, des clés. Le concept d'une clé a commencé lorsque la portée musicale s'est développée. Les états-majors avaient autrefois aussi peu que quatre lignes et jusqu'à six. La standardisation des portées à cinq lignes a commencé au 16ème siècle. À l'origine, les marques de clef (les lettres stylisées C, F et G) indiquaient où cette note apparaissait sur la portée. Au début, chaque compositeur arrangait la portée en fonction du morceau de musique qu'il écrivait. Les espaces et les lignes de la portée indiqueraient des notes différentes selon l'emplacement du signe de la clef. Le système moderne dans lequel chaque note a un emplacement fixe sur la portée est venu plus tard.

L'utilisation de symboles spéciaux pour les dièses (un demi-ton plus haut que la note écrite) ou les bémols (un demi-ton plus bas) a commencé très tôt. Le signe plat (le « b » minuscule stylisé pour lequel je ne trouve pas de caractère) s'est développé à partir du symbole du si bémol (qui était autrefois considéré comme une note distincte sur la gamme). Plus tard est venu le symbole pour jouer si bémol comme une note naturelle (non bémolie) – un « b » gothique minuscule, qui était un carré avec des lignes verticales saillantes. L'extension des lignes de ce symbole gothique "b" dans toutes les directions nous a donné notre symbole pour dièse: #.

Le premier système de durée de note est généralement crédité à Franco de Cologne au 13ème siècle dans son travail, Ars cantus mensurabilis. Dans cette œuvre, de Cologne a tenté de codifier non seulement la hauteur d'une note, mais aussi la durée pendant laquelle elle a été tenue. Un bon début mais quelque peu limitant car la plupart des notes étaient soit longues (pleines) soit courtes (un tiers de long). Cela semblerait probablement étrange à ceux d'entre nous habitués à une musique ayant quatre temps à la mesure (comme le fait la grande majorité de la musique occidentale). Une partie survivante du système de de Cologne est le « triplet », une structure rythmique dans laquelle une durée spécifique est divisée en trois pour l'effet.

Les systèmes de notation musicale ont d'abord montré une grande variété, mais aux 17e et 18e siècles, des formes désormais familières telles que l'armure de clé, les formes de notes, les métriques, etc., ont commencé à être standardisées. De nos jours, il est difficile de trouver de la musique écrite qui n'utilise pas ce format, mais certaines existent encore. Le format de plain-chant utilisé pour le chant grégorien n'indique que la mélodie, tandis que la musique de guitare en « tablature » indique les frettes, en omettant la durée. Presque toutes les autres musiques occidentales utilisent la même notation, ce qui, quand on y pense, est un exploit remarquable.

SDStaff Nate Wooley, Conseil consultatif scientifique de Straight Dope

Envoyez vos questions à Cecil via [email protected]

LES RAPPORTS DU PERSONNEL SONT RÉDIGÉS PAR LE STRAIGHT DOPE SCIENCE ADVISORY BOARD, L'AUXILIAIRE EN LIGNE DE CECIL. BIEN QUE LE SDSAB FAIT DE SON MIEUX, CES COLONNES SONT ÉDITÉES PAR ED ZOTTI, PAS CECIL, DONC VOUS DEVRIEZ CROISER LES DOIGTS AVEC PRÉCISION.


Horloges à eau

Les horloges à eau étaient parmi les premiers garde-temps qui ne dépendaient pas de l'observation des corps célestes. L'un des plus anciens a été retrouvé dans la tombe du pharaon égyptien Amenhotep Ier, enterré vers 1500 avant notre ère. Plus tard nommé clepsydres ("voleurs d'eau") par les Grecs, qui ont commencé à les utiliser vers 325 av. D'autres clepsydres étaient des récipients cylindriques ou en forme de bol conçus pour se remplir lentement d'eau entrant à un débit constant. Des marques sur les surfaces intérieures mesuraient le passage des "heures" au fur et à mesure que le niveau d'eau les atteignait. Ces horloges étaient utilisées pour déterminer les heures de nuit, mais peuvent également avoir été utilisées à la lumière du jour. Une autre version consistait en un bol en métal avec un trou au fond lorsqu'il était placé dans un récipient d'eau que le bol se remplissait et coulait dans un certain temps. Ceux-ci étaient encore en usage en Afrique du Nord au 20ème siècle.

Un astronome macédonien, Andronikos, a supervisé la construction de son Horlogerie, connue aujourd'hui sous le nom de Tour des Vents, sur le marché d'Athènes dans la première moitié du premier siècle avant notre ère. Cette structure octogonale montrait aux érudits et aux acheteurs à la fois des cadrans solaires et des indicateurs d'heure mécaniques. Il comportait une clepsydre mécanisée 24 heures sur 24 et des indicateurs des huit vents dont la tour tire son nom, et il affichait les saisons de l'année et les dates et périodes astrologiques. Les Romains ont également développé des clepsydres mécanisées, bien que leur complexité n'ait guère amélioré les méthodes plus simples pour déterminer le passage du temps.

En Extrême-Orient, l'horlogerie astronomique/astrologique mécanisée s'est développée de 200 à 1300 de notre ère. Les clepsydres chinoises du IIIe siècle ont entraîné divers mécanismes qui illustraient les phénomènes astronomiques. L'une des tours d'horloge les plus élaborées a été construite par Su Sung et ses associés en 1088 de notre ère. Le mécanisme de Su Sung incorporait un échappement à eau inventé vers 725 de notre ère. La tour de l'horloge Su Sung, haute de plus de 9 mètres, possédait une sphère armillaire en bronze pour les observations, un globe céleste à rotation automatique et cinq panneaux avant avec des portes qui permettaient de voir des mannequins changeants qui sonnaient des cloches ou des gongs, et contenaient des tablettes indiquant l'heure ou d'autres moments particuliers de la journée.

Étant donné que le débit d'eau est très difficile à contrôler avec précision, une horloge basée sur ce débit ne pourrait jamais atteindre une excellente précision. Les gens ont été naturellement conduits à d'autres approches.

Avis d'archivage en ligne : Cette page n'est plus mise à jour et reste en ligne à titre informatif et historique uniquement. Les informations sont exactes à partir de 2004. Pour toute question sur le contenu des pages, veuillez nous contacter.


Historique du cadran solaire - Premier appareil d'enregistrement

L'histoire des appareils de mesure du temps couvre non seulement les périodes modernes de notre histoire lorsque les ingénieurs mécaniciens nous ont permis d'intégrer des horloges et des montres dans notre culture, mais remonte également beaucoup plus loin dans le temps - jusqu'à la naissance de la civilisation moderne. Là, à Babylone et dans l'Égypte ancienne, les scientifiques et les astronomes sont arrivés pour la première fois à la conclusion que le mouvement des corps célestes peut être utilisé pour mesurer avec précision le temps. Leur initiative et leur ingéniosité nous ont apporté des appareils de mesure pour la première fois – des cadrans solaires.

Même si les historiens et archéologues modernes ne peuvent pas déterminer l'heure exacte à laquelle les premiers cadrans solaires ont été utilisés, les vestiges égyptiens et babyloniens peuvent nous fournir une preuve claire de leur existence. D'énormes obélisques de cadrans solaires égyptiens ont été érigés à partir du sable d'Afrique du Nord en 3500 av. Les documents historiques des deux premiers millénaires avant JC peuvent même nous donner une image de la vision égyptienne de l'époque. Parce qu'ils vivaient dans un environnement désertique avec de petites variations diurnes dans les saisons annuelles, ils ont divisé leur journée en 10 heures égales, avec 4 heures supplémentaires qui ont été divisées en heures de lever et de coucher du soleil.

Au fil des siècles, l'essor de la Grèce antique a permis à leurs commerçants de mettre la main sur des cadrans solaires babyloniens qui ont été rapidement renvoyés en Grèce et adoptés immédiatement par leurs scientifiques et mathématiciens innovants. Les historiens modernes pensent que les cadrans solaires sont entrés en Grèce par le biais d'Anaximandre de Milet, célèbre philosophe, astronome et physicien. Après avoir présenté les principes de base du cadran solaire à ses étudiants de l'école milésienne, les cadrans solaires sont devenus l'une des forces motrices du célèbre calcul grec et de la création de la géométrie moderne qui se concentrait beaucoup sur les sections coniques du cadran solaire. Avec un si grand mystère naturel sur leurs mains et les avantages évidents d'avoir un appareil de mesure du temps précis dans leur vie, de nombreux innovateurs grecs ont commencé à concentrer leur carrière sur les cadrans solaires et d'autres types d'appareils de mesure du temps (horloges à eau, horloges à poids, horloges à bougies, horloges à lampes, etc.). L'exemple le plus célèbre d'innovation en matière de cadran solaire est venu du mathématicien et astronome Théodose de Bithynie (160 av.

Les progrès du cadran solaire qui ont été réalisés en Grèce se sont rapidement rendus à Rome, qui a fait son premier cadran solaire à Rome en 293 avant JC. En 10 avant JC, l'empereur Auguste a érigé le plus grand cadran solaire romain Solarium Augusti (30 mètres de haut) importé d'Égypte. Après la chute de l'Empire romain, le califat islamique a hérité et amélioré les cadrans grecs qui ont ensuite acquis de nombreuses nouvelles capacités. En raison des plus grandes différences saisonnières, les mathématiciens islamiques ont développé des cadrans solaires avec des heures temporaires – les heures étaient plus courtes en hiver et plus longues en été. À la fin des années 1300, les mathématiciens islamiques ont adopté des heures égales de la journée pour toute l'année, une conception qui est apparue en Europe au milieu des années 1400.

La renaissance européenne a rendu les cadrans solaires populaires, où ils sont restés constamment utilisés principalement par le gouvernement et le commerce jusqu'au milieu des années 1800, lorsque la fabrication d'horloges mécaniques a finalement dépassé la précision et la fiabilité des cadrans solaires.


Voir la vidéo: KUKA Robot @ Universal Studio. - The Fast and the Furious (Août 2022).