Bounce Ou Pas?, la meilleure façon d'enregistrer un morceau |
Tue 1 May 2007, 12:28
Post
#121
|
|
Moderateur Bouffon Group: Moderators Posts: 3,894 Joined: 06-Dec 00 From: Montpellier - FR Member No.: 22 |
là où il y a les Blues Bell Girls) zut, j'avais oublié les Blues Bell Girls -------------------- le heral, parce que je le vaurien
|
|
|
Tue 1 May 2007, 13:07
Post
#122
|
|
Junior Member Group: Members Posts: 157 Joined: 05-Sep 04 From: Paris - FR Member No.: 50,294 |
Bon, c'est vrai qu'on commence à "beater le dead horse" là
Lance le Moniteur d'activité sur ton Mac même dédié musique, tu vas voir qu'il y a du monde qui s'affaire en coulisses, même si tu n'as qu'une appli ouverte dans ton interface graphique Nan mais attend, ça aussi je sais... ca fait un peu plus de 10 ans que je travaille quotidiennement sur des Macs. Je ne suis peut être pas informaticien mais bon... Si je lance le moniteur d'activité sur un Mac qui ne roule que pour ProTools, le "monde qui s'affaire" c'est uniquement ce qui est lié à l'OS. Là, part exemple, j'ai Dock=0,90% et Finder=1,50% (+le Moniteur d'activité). Choisis d'afficher "toutes les opérations", ça sera plus réaliste déjà Ce qui est lié à l'OS, c'est précisément de ça que je parle : ça peut provoquer des tas de perturbations suivant ce qu'il a à faire. QUOTE J'en revient donc à ce que je disais précédemment: les erreurs imprévisibles (et non reproductibles) existent. Tout ne se calcule pas comme tu le disais plus haut. Ben... ça dépend à quel niveau de détail tu te places ! Si tu te places au niveau :"j'ai joué la session la première fois, ça a passé, je suis allé bouffé, je suis revenu, j'ai refait play, ça a pas passé", en effet c'est une erreur imprévisible. Mais si on avait mis dans l'ordi un truc qui surveillait ce qui s'est vraiment passé, et pourquoi le processeur était surchargé la 2e fois à ce moment précis, on aurait toujours fini par trouver une explication logique ! Je ne prétends que 2 choses : 1) qu'il y a toujours en numérique une explication logique au final à un comportement qui peut paraitre du hasard, même si parfois il faut creuser pour la trouver et que ça vaut pas forcément le coup... 2) qu'un processeur à qui on donne 2 fois de suite les mêmes données et le même algorithme pour les traiter va faire fatalement le MEME calcul à chaque fois, avec les mêmes résultats. Et wfplb, ça c'est pas un truc qu'on m'a appris et qui m'empeche de voir la lumière : c'est juste une déduction très simple: y aurait pas grand chose qui marcherait dans le monde qui nous entoure, si les processeurs se plantaient vraiment dans 1 calcul sur 1000 ou même 1 million ! C'est déjà assez dur comme ça à faire un algorithme compliqué sans bugs, alors si en plus le processeur arrivait ou pas à l'exécuter suivant son humeur et donnait des résultats différents, je te dis pas le merdier QUOTE C'est pas pour rien que ça s'appelle "intelligence artificielle". Dedans, y'a "intelligence" et toute intelligence contient une part d'erreur, nous en sommes une illustration flagrante et permanente... D'ailleurs, tu le dis toi même. Je crois qu'on est assez d'accord là dessus finalement... Ben sur l'intelligence, je suis vraiment pas d'accord pour le coup : les processeurs n'en ont justement aucune, ils exécutent, mais en contrepartie ils sont infaillibles, tout le contraire de nous ! Bon conclusion : il ne nous reste plus qu'à trouver un programmeur de Logic pour qu'il nous dise si des algos différents sont utilisés lors de la lecture, du bounce temps réel, et du bounce offline. |
|
|
Tue 1 May 2007, 14:04
Post
#123
|
|
Maniac Member Group: Members Posts: 501 Joined: 20-Sep 03 From: Paris - FR Member No.: 25,065 |
D'un autre côté, qui veut vraiment revenir à l'époque des OS mono-tâche à la Atari ? moi ! pour ajouter une part à la discussion sur le calcul, il m'est arrivé de frequenter des gugusses capables d'ecrire le code de guidage de missiles sol/sol. tout est pris en consideration, vous vous en doutez bien oui, mais comment expliquer que la chose puisse frapper à 25m de sa cible? ben, c'est un peu pareil avec nos systemes, quoique à priori plus pacifistes, tout calculateur a ses propres derives, ses propres erreurs, simplement parce qu'il lui faut gerer la vie voire l'homme. nier ces erreurs, c'est nier l'atmosphère, l'electricité, le 2,4gHz qui nous entoure, plus généralement les champs electromagnatiques, c'est nier l'oxydation de nos cables, l'odeur de nos pets... le nier, c'est penser que le monde pourrait etre parfait. le nier nous rapproche de Nietsche, le nier est fascisant. Tout ceci est vrai en analogique, pas en numérique. Le numérique, c'est une suite d'opérations, ni plus ni moins, alors à moins de changer les maths.. je vois pas. |
|
|
Tue 1 May 2007, 14:31
Post
#124
|
|
SuperHero Group: Members Posts: 9,465 Joined: 04-Nov 01 From: Paris - FR Member No.: 2,244 |
Ce qui est lié à l'OS, c'est précisément de ça que je parle : ça peut provoquer des tas de perturbations suivant ce qu'il a à faire. Oui, ben c'est bien ce que je disais quand je mettais en doute ton "tout se prévoit, tout se calcule", comme si les programmeurs pouvaient prévoir TOUT à l'avance. C'est juste faux. QUOTE Mais si on avait mis dans l'ordi un truc qui surveillait ce qui s'est vraiment passé, et pourquoi le processeur était surchargé la 2e fois à ce moment précis, on aurait toujours fini par trouver une explication logique ! On tourne en rond... je ne dis pas le contraire... Pour la 3ème fois (ou 4ème je sais plus), c'est avec ton "tout se calcule et tout se prévoit" que je suis en désaccord. Qu'on trouve une explication logique après coup, je n'en doute pas, c'est sûr c'est plus facile, mais que celle-ci ai pu être prévu, non je ne crois pas. C'est d'ailleurs pour ça que les updates et autres cs existent, pour réparer des oublis certes (bugs) mais aussi pour palier à des comportements qui n'étaient pas prévus... QUOTE 2) qu'un processeur à qui on donne 2 fois de suite les mêmes données et le même algorithme pour les traiter va faire fatalement le MEME calcul à chaque fois, avec les mêmes résultats. Dans la théorie, oui, dans la pratique, pas nécessairement... Toujours pour les mêmes raisons... Celles là même dont tu reconnais l'existence: conflit avec une tache de l'OS, mauvaise combinaison de codes, disque dur fébrile, etc etc... QUOTE Ben sur l'intelligence, je suis vraiment pas d'accord pour le coup : les processeurs n'en ont justement aucune, ils exécutent, mais en contrepartie ils sont infaillibles, tout le contraire de nous ! Infaillible??! C'est pas possible, tu travailles pas sur ordinateur pour dire des trucs pareils!... Bref. Je crois qu'on y arrivera pas, je jette l'éponge. This post has been edited by Mr.T: Tue 1 May 2007, 14:34 -------------------- |
|
|
Tue 1 May 2007, 16:04
Post
#125
|
|
SuperHero Group: Members Posts: 2,748 Joined: 04-Sep 02 From: Elancourt - FR Member No.: 7,376 |
Bref. Je crois qu'on y arrivera pas, je jette l'éponge. Je ne suis plus ingénieur, ni compositeur et je n'ai jamais été mixeur (professionnel). Mais je suis persuadé qu'il y a une explication rationnelle aux "mystères" qui vont au delà de la question légitime: "Bounce ou pas" de André Dalcan. Moi, je prétends que si on ne touche à rien entre temps, le "bounce" et le "mix" (issu des masters) sont identiques. Je répète: ça ne veux pas dire que les plugins, les convertisseurs et toute la cuisine du DAW fonctionnent bien. Je ne doute pas que des ingé son aient constaté des défauts au tout numérique, et préfèrent passer par une console analogique, mais c'est une autre histoire. Pour qu'un soft de DAW (ou autre) soit intelligent, il faudrait qu'il puisse se modifier lui-même, et sur quel critère ? Il peut tout juste te proposer les manoeuvre que tu fais le plus souvent. Je constate cependant un léger scepticisme des plombiers envers les ingénieurs. Ça ne me touche plus . QUOTE (wf @ plombier, vers cinq heures) Les spécialistes nous ont dit qu'il ne restait que le groupe électrogène comme solution... T'as pas gardé leur adresse ??? Je sais, c'est facile et mesquin. Fallait pas m'énerver |
|
|
Tue 1 May 2007, 17:10
Post
#126
|
|
Junior Member Group: Members Posts: 164 Joined: 07-Jan 07 From: Montréal - CA Member No.: 87,034 |
D'un autre côté, qui veut vraiment revenir à l'époque des OS mono-tâche à la Atari ? moi ! pour ajouter une part à la discussion sur le calcul, il m'est arrivé de frequenter des gugusses capables d'ecrire le code de guidage de missiles sol/sol. tout est pris en consideration, vous vous en doutez bien oui, mais comment expliquer que la chose puisse frapper à 25m de sa cible? ben, c'est un peu pareil avec nos systemes, quoique à priori plus pacifistes, tout calculateur a ses propres derives, ses propres erreurs, simplement parce qu'il lui faut gerer la vie voire l'homme. nier ces erreurs, c'est nier l'atmosphère, l'electricité, le 2,4gHz qui nous entoure, plus généralement les champs electromagnatiques, c'est nier l'oxydation de nos cables, l'odeur de nos pets... le nier, c'est penser que le monde pourrait etre parfait. le nier nous rapproche de Nietsche, le nier est fascisant. «nier ces erreurs, c'est nier l'atmosphère, l'electricité, le 2,4gHz qui nous entoure, plus généralement les champs electromagnatiques, c'est nier l'oxydation de nos cables, l'odeur de nos pets...» En dépit de son apparente bouffonnerie, cette pensée est clairvoyante... Les facteurs externes sont bien plus présent qu'on ne le croit... ou qu'on ne le comprend ! Salut |
|
|
Tue 1 May 2007, 17:57
Post
#127
|
|
Maniac Member Group: Members Posts: 501 Joined: 20-Sep 03 From: Paris - FR Member No.: 25,065 |
QUOTE 2) qu'un processeur à qui on donne 2 fois de suite les mêmes données et le même algorithme pour les traiter va faire fatalement le MEME calcul à chaque fois, avec les mêmes résultats. Dans la théorie, oui, dans la pratique, pas nécessairement... Toujours pour les mêmes raisons... Celles là même dont tu reconnais l'existence: conflit avec une tache de l'OS, mauvaise combinaison de codes, disque dur fébrile, etc etc... Il peut y avoir des erreurs effectivement, mais ces erreurs n'ont rien à voir avec les erreurs analogiques. Ca ne peut en aucun cas entrainer d'ecretage, de stereo moins large, de basses moins rondes, ou je ne sais quoi. Ces erreurs lorsqu'elles arrivent sont détectées par le logiciels, et je le répète, un seul bit de modifié produit un click audio, rien d'autre. Si je vous fait un plug qui prend la valeur de chaque échantillon et la divise par 2, vous pensez que d'une fois à l'autre il peut donner un résultat différent ? Non mais franchement, vous avez déjà eu un caractère dans un fichier texte qui a subitement changé ? Non ? moi non plus. |
|
|
Tue 1 May 2007, 18:08
Post
#128
|
|
SuperHero Group: Members Posts: 9,465 Joined: 04-Nov 01 From: Paris - FR Member No.: 2,244 |
Ca ne peut en aucun cas entrainer d'ecretage, de stereo moins large, de basses moins rondes, ou je ne sais quoi. (...) Ces erreurs lorsqu'elles arrivent sont détectées par le logiciels Bon je reprend l'éponge parceque là, vraiment... Comparer un soft audio qui doit dealer avec du direct to disc et des centaines de calculs temps réels (volumes, pans, plugins, sommation de l'ensemble des pistes voire dithering) avec du traitement de texte, franchement... Dans l'exemple que je donnais de la reverb qui part en sucette au moment du bounce (et qui n'est PAS un bug au sens strict du terme), ça peut justement changer tout un mix si on y prend garde. Or, Dieu merci, dans ce cas, le problème était identifiable à l'oreille mais, contrairement à ce que tu prétends, l'ordinateur, lui, n'y a vu que du feu. Arrêtez de croire que ces machines sont "rock solid", la pratique quotidienne nous démontre le contraire. Et ce dans tous les domaines où l'informatique est très présent... -------------------- |
|
|
Tue 1 May 2007, 18:37
Post
#129
|
|
Junior Member Group: Members Posts: 183 Joined: 13-Dec 06 From: Paris - FR Member No.: 86,294 |
tout à fait d'accod avec T ,
d'ailleurs il n'est pas rare de voir des changements de mise en page en reouvrant un fichier .doc . L'informatique est un outil tres fiable , on est bien d'accord . Il est vrai que l'on ne retiens que les bugs et autres déraillements en oubliant combien ca nous rend service 95% du tps . Mais ne tombons pas dans le " c'est genial , y a rien a dire , tout est nikel fermons les yeux et lachons le guidon maintenant que mon CPU a atteint la perfection ... ceux qui pense pas ca sont des incompetents naïfs qui s'enferment dans des croyances ésotériques " . bien sur que y a toujours une explication rationnelle , raison de plus pour se poser des questions non ? |
|
|
Tue 1 May 2007, 19:56
Post
#130
|
|
Junior Member Group: Members Posts: 157 Joined: 05-Sep 04 From: Paris - FR Member No.: 50,294 |
QUOTE 2) qu'un processeur à qui on donne 2 fois de suite les mêmes données et le même algorithme pour les traiter va faire fatalement le MEME calcul à chaque fois, avec les mêmes résultats. Dans la théorie, oui, dans la pratique, pas nécessairement... Toujours pour les mêmes raisons... Celles là même dont tu reconnais l'existence: conflit avec une tache de l'OS, mauvaise combinaison de codes, disque dur fébrile, etc etc... Mais NOooN ! Tout cela peut jouer sur le TEMPS de calcul, et le fait qu'on puisse le faire en temps réel ou pas, et donc que ça passe ou ça casse en lecture live/temps réel. En aucun cas sur le RESULTAT final de l'algorithme, c'est à dire les chiffres qu'il va y avoir dans ta forme d'onde et dans ton fichier audio. On est pas en analogique merde! QUOTE Ben sur l'intelligence, je suis vraiment pas d'accord pour le coup : les processeurs n'en ont justement aucune, ils exécutent, mais en contrepartie ils sont infaillibles, tout le contraire de nous ! Infaillible??! C'est pas possible, tu travailles pas sur ordinateur pour dire des trucs pareils!... Bref. Je crois qu'on y arrivera pas, je jette l'éponge. Je maintiens qu'un microprocesseur fait toujours infailliblement les traitements et calculs qu'on lui demande, ouaip, et encore heureux ! Tu trouves pas ça le minimum, que quand tu donnes à une calculette un calcul elle se plante pas ? Comme l'a dit jeriqo, t'as déjà vu un éditeur de texte qui te change 10% des lettres à chaque fois que tu enregistres ? Bien sûr que non !! Les ordinateurs n'existeraient tout simplement pas si ce que tu disais était vrai, parce qu'un chiffre qui change dans de l'audio ou de la vidéo, c'est pas toujours dramatique, mais pour d'autres types de données un seul bit qui change peut tout planter ! Un ordinateur qui change comme ça des chiffres au pif ou qui ne retient pas EXACTEMENT ce qu'on lui donne ou qui fait des erreurs de calcul, ça signifie une barrette mémoire ou un processeur défectueux, et en général ça tient pas 10 minutes avant de freezer violemment... Et jeriqo a encore raison : il n'y a absolument aucune différence de nature entre du traitement de texte et du traitement audio lourd pour le processeur, il n'y a que la quantité qui change, mais lui sinon il s'en tape complètement, il ne sait pas à quoi servent les calculs qu'il fait, si l'addition sert à aller à la colonne suivante ou si ça sert à additionner 2 valeurs de samples. Dans les 2 cas, il donnera un résultat toujours exact et parfait. Après, qu'on ait tout le temps des emmerdes avec les softs, oui, mais c'est quelque chose qui est lié à la complexité des situations où il se trouve, le nombre d'interactions avec d'autres choses que le programmeur ne peut pas maitriser à lui tout seul (l'interface audio, les autres softs, les plugs, etc). C'est pour ça que les systèmes dédiés genre multi-pistes numériques sont en général plus fiables qu'un truc généraliste où y a plein de gens différents impliqués et personne qui maitrise l'ensemble de la chaine. si ça te fait rien, j'ai corrigé tes quotes qui partaient en sucette, un probleme de calculette peut être? This post has been edited by heral: Tue 1 May 2007, 21:22 |
|
|
2 User(s) are reading this topic (2 Guests and 0 Anonymous Users)
0 Members: