Noté/5: Achetez Pourquoi le tout est plus que la somme de ses parties de Ricard, Jacques: ISBN: 9782705667375 sur amazon.fr, des millions de livres livrés chez vous en 1 jour . Choisir vos préférences en matière de cookies. Nous utilisons des cookies et des outils similaires qui sont nécessaires pour vous permettre d'effectuer des achats, pour améliorer vos expériences
L'ensemble des activités scientifiques qui se sont développées dans les pays occidentaux depuis Descartes, repose sur une réduction du complexe au... Lire la suite 39,00 € Neuf Ebook Téléchargement immédiat 24,99 € Expédié sous 2 à 4 semaines Livré chez vous entre le 13 septembre et le 27 septembre L'ensemble des activités scientifiques qui se sont développées dans les pays occidentaux depuis Descartes, repose sur une réduction du complexe au simple. Cette démarche s'est d'abord avérée efficace mais, dans bien des domaines, elle a maintenant atteint ses limites. Les systèmes possèdent des propriétés collectives non réductibles à celles de leurs éléments constitutifs. Ils sont, pour cette raison, appelés émergents, ou complexes. Bien que cette notion soit présente depuis fort longtemps dans la pensée philosophique, c'est probablement l'étude de systèmes biomimétiques en apparence simples, ainsi que celle des réseaux, qui a permis de donner une définition rationnelle, physique, des processus d'émergence. Le but de ce livre est donc, tout à la fois, d'aborder certains aspects de la science des systèmes et de discuter des implications philosophiques de cette nouvelle science. Ce livre n'est donc ni un ouvrage purement scientifique, ni un ouvrage proprement philosophique mais, plutôt, une tentative de montrer comment un changement majeur de paradigme survenu dans la science contemporaine affecte notre approche de problèmes philosophiques anciens. Date de parution 01/09/2008 Editeur Collection ISBN 978-2-7056-6737-5 EAN 9782705667375 Présentation Broché Nb. de pages 325 pages Poids Kg Dimensions 15,5 cm × 21,0 cm × 1,8 cm
Eneffet, partant du principe que l’intelligence collective est un système, on peut dire que c’est la somme des intelligences individuelles des membres d’une équipe plus leur relation. Ainsi, ce qui distingue une intelligence collective d’un simple travail collectif, c’est ce dépassement dû à la relation entre les membres du collectif. L’émergence de l’intérêt pour l
Lelivre indique que l’amélioration du fait de faire correctement partie de l’ensemble peut entraîner une augmentation de la productivité de 20 à 50 fois. Je ne sais pas pour toi, mais j’aimerais avoir 20 à 50 fois plus de presque tout. C’est en partie pour ça que je lis le livre. En tant qu’ingénieur, je suis assez doué pourJ'ai toujours été agacé par la maxime Le tout est plus que la somme de ses parties» due au grand Aristote. Elle a été commentée mille fois et presque toujours applaudie sans beaucoup de sens critique. La raison de cette agacement est que je ne voyais pas à quoi pouvait correspondre sérieusement —c'est-à-dire mathématiquement ou logiquement— ce "plus" que posséderait toujours le tout sur la somme de ses parties. Pour donner à la maxime un sens intéressant —et si possible démontrable—, il faut fixer une notion de valeur, et constater —ou mieux prouver— que celle du "tout" est plus grande que la somme des valeurs des "parties". Pour faire une somme, il faut dépasser les idées vagues et définir une mesure. Il faut donc associer un nombre au "tout" et d'autres à chaque "partie". La maxime avec peut-être des hypothèses restrictives à formuler doit pouvoir devenir un théorème. Il semble assez naturel de rechercher cette valeur sous la forme d'une mesure de complexité ou de contenu en information car ce plus» évoqué est vraisemblablement un enrichissement, ce qu'aujourd'hui nous cherchons à comprendre en employant les mots information et complexité. En résumé, pour tirer quelque chose de formel et donc de précis de la maxime sur le "tout" et les "parties", on doit considérer des objets A1, A2, ..., Ak qui auront chacun une certaine complexité ComplexitéA1, ComplexitéA2, ..., ComplexitéAk ne précisons pas de quelle complexité on parle pour l'instant ni son rapport éventuel avec de l'information, et dont la réunion UnionAi aura une complexité plus grande que la somme des complexités individuelles ComplexitéUnionAi > ComplexitéA1 + ... + ComplexitéAk Il se trouve que ça ne marche pas bien pour toutes les idées qui viennent en premier à l'esprit du mathématicien et de l'informaticien théoricien. Tentative 1 Prenons pour objet des ensembles au sens mathématique et pour mesure de leur complexité leur nombre d'éléments. Ce n'est pas absurde plus un ensemble comprend d'éléments, plus il est complexe. Il y a bien un rapport entre les deux côté de l'inégalité étudiée, mais il est inverse de celui qu'on attend Complexité UnionAi ≤ Complexité A1 + ... + Complexité Ak Il s'agit d'un théorème immédiat en théorie des ensembles. Dans le cas d'ensembles finis, il n'y a égalité que lorsque tous les ensembles sont disjoints deux à deux, ce qui se produit plutôt rarement. Notre première tentative de formalisation, donne et démontre une maxime opposée à celle d'Aristote ! Tentative 2 Prenons pour objet des problèmes algorithmiques applicables à des entiers n. Quelques exemples. A1 factoriser n» ; A2 trouver la somme des diviseurs de n» ; A3 déterminer si n est un nombre premier» ; A4 déterminer si n est un carré parfait» ; etc. Prenons pour le tout, le problème de résoudre l'ensemble des problèmes élémentaires simultanément. Pour mesure de complexité, prenons —cela va de soi pour qui s'intéresse à la complexité des algorithmes— le nombre d'opérations nécessaires ou la taille de la mémoire nécessaire pour mener la résolution des problèmes. On sait par exemple depuis 2002 que savoir si un nombre n est premier problème de la primalité est polynomial en fonction de la taille de n. Avec cette formalisation on ne peut plus naturelle pour qui s'occupe d'algorithmes, la maxime d'Aristote ne marche toujours pas. En effet, la complexité de la résolution du "tout" sera au plus la somme des complexités des "parties" et sera souvent plus faible car certains problèmes comme ceux de notre liste bénéficient des calculs faits pour d'autres ce qui permet des économies de ressource pour qui cherche à traiter les problèmes simulténément. La complexité du "tout", dans le cas des problèmes et algorithmes, est toujours inférieure ou égale à la somme des complexités des "parties". Complexité UnionAi ≤ Complexité A1 + ... + Complexité Ak Dommage ! Tentative 3 On considère des objets numériques finis et on mesure leur valeur par la complexité de Kolmogorov, qui, par définition, est la taille du plus petit programme qui les engendre. Cette mesure de complexité est aujourd'hui unanimement considérée comme la bonne mesure du contenu en information» d'un objet numérique. Elle généralise l'entropie de Shannon. Elle est utilisée en informatique mais aussi en physique, en philosophie des sciences, en biologie, en psychologie. Pas de chance, et c'est plus grave ici car il s'agit vraiment d'une mesure de contenu en information, là encore la complexité de Kolmogorov d'un ensemble d'objets numériques finis est inférieure ou égale à la somme des complexités de Kolmogorov des objets pris un à un. C'est un théorème de la théorie. L'idée de la démonstration est simple les programmes les plus courts qui engendrent A1, A2, ..., Ak, peuvent être mis bout à bout ; ils constituent alors un programme qui engendre le "tout" ; ce programme somme n'est peut-être pas le plus court qui donne le "tout", mais le programme le plus court qui donne le "tout" sera plus court puisqu'il y a déjà ce programme là et donc la complexité du "tout" sera inférieure à la somme des complexité des "parties". Là encore, la théorie dit et démontre le contraire de la maxime d'Aristote. Fort de ces exemples, il me semblait que jamais dans aucun cas, on ne pouvait mathématiquement trouver des situations où la complexité du "tout" est plus grande que la somme des complexités des objets pris individuellement. Même en cherchant le plus honnêtement possible, quelle que soit la façon naturelle de définir et de mesurer la complexité, pas de "tout" meilleur que "la somme des parties". Précision que dans ma recherche d'une mesure de complexité satisfaisant la maxime d'Aristote, j'ai exclu les méthodes factices où on place dans le "tout" autre chose que l'ensemble des "parties". Par exemple, je ne considère pas comme une illustration acceptable de la maxime d'Aristote qu'on dise qu'il y a dans un mot plus que ce qu'il y a dans l'ensemble de ses lettres. Il est vrai que dans le mot COMPLEXE, il y a plus que dans la donnée de l'ensemble de ses lettres C, E, E, L, M, O, P, X, mais c'est bien évidemment parce qu'on ordonne les lettres, et que cet ordre ajouté aux parties constitue le "plus" qu'on trouve dans le "tout" et qui n'est pas dans la somme des "parties". De telles illustrations de la maxime d'Aristote sont illusoires et naïves, elles sont triviales et sans intérêt puisque qu'elles sont basées sur un ajout caché quand on constitue le "tout", autrement dit un truc de prestidigitateur. Pouvait-il exister des cas recevables illustrant formellement la maxime d'Aristote dans le champ contemporain des sciences de la complexité ? Enfin un cas qui marche ! La théorie algorithmique de l'information qui détaille tout ce qu'on peut dire et démontrer sur la complexité de Kolmogorov a introduit une notion qui va nous sauver. Il s'agit de la profondeur logique de Bennett» qui est, par définition, le temps de calcul du plus court programme qui produit l'objet numérique fini auquel on s'intéresse. C'est une mesure de complexité structurelle» une mesure de la richesse en organisation, ce que n'est pas la complexité de Kolmogorov qui n'est qu'une mesure de contenu incompressible d'information». Ces deux mesures de complexité diffèrent le plus à propos des objets aléatoires dont l'exemple typique est une suite finie de '0' et de '1' obtenue par des tirages successifs à pile ou face. Pour un tel objet aléatoire, la complexité de Kolmogorov est maximale on ne peut pas le décrire de manière sensiblement plus brève qu'en en donnant les éléments un à un, ce qui est la pire situation puisque l'objet à produire sera explicitement dans le programme. Une suite aléatoire des bits est incompressible alors qu'à l'inverse la profondeur logique est minimale une suite aléatoire n'est pas structurée, son contenu en structure est quasi-nul ; sa profondeur logique de Bennett est réduite au minimum puisqu'exécuter le programme le plus court qui engendre la suite aléatoire revient à exécuter un programme qui recopie une donnée explicitement inscrite dans le programme et qu'une telle copie ne peut pas prendre de temps. Dans le cas général, la profondeur logique de Bennett ne donne pas que le "tout" a une complexité plus grande que la somme des complexités des "parties". En effet, si vous prenez un tout composé de k fois le même objet, sa profondeur logique sera à peu de chose près la complexité d'un seul objet, et donc sera nettement inférieure à la somme des complexités des objets pris un à un. Il ne peut y avoir un théorème du "tout" et des "parties" exprimant sans restriction la maxime d'Aristote, même avec la profondeur logique de Bennett ! En revanche, et c'est là que j'ai eu une surprise, il existe des cas où on peut établir avec certitude ce qui est assez difficile quand on manie le concept de profondeur logique que la complexité d'un tout composé de plusieurs objets sera supérieure à la complexité de la somme de chacun d'eux. Voici un tel exemple imparable. Considérons les deux images A et B. A B Chacune est composée de '0' pixel noir et de '1' pixel blanc d'une manière parfaitement aléatoire. Leur profondeur logique de Bennett est donc minimale comme nous venons de l'expliquer un objet aléatoire n'est pas structuré et possède donc une profondeur logique minimale comparable à celle d'une suite de même longueur composée uniquement de '0'. Le "tout" composé des deux images A et B n'est pas aléatoire, car les deux images sont intimement corrélées. Pour s'en rendre compte, on applique un ou-exclusif entre A et B ce qui donne une image C quand les deux pixels de A et B sont identiques, on met un '1' dans l'images C, sinon on met un '0'. C Faites l'expérience téléchargez les images et superposez-les la superposition simple qui correspond au 'ou' fait déjà apparaître le résultat ; l'opération logique 'ou-exclusif' appelée aussi 'xor' donne exactement C. On voit apparaître un célèbre personnage de l'histoire de France, mais on peut bien sûr par le même procédé à la base de ce qu'on nomme la cryptographie visuelle » obtenir n'importe quelle image aussi structurée qu'on le souhaite en partant de deux objets parfaitement non structurés mais corrélés. On montre par ailleurs que partant de A et de C on obtiendra B en appliquant là aussi un ou-exclusif. Il en résulte que le programme le plus court qui donnera le "tout" A et B sera le programme le plus court de A associé avec le programme le plus court de C, suivi d'un calcul de ou-exclusif entre A et C, ou sera quelque chose très proche de ce procédé. Puisque C est structuré de manière non triviale, ce programme minimal pour le "tout" A et B aura un temps de calcul plus long que la somme des temps de calcul des programmes minimaux pour A et minimaux pour B qui étaient des programmes très rapides puisqu'il n'y aucune structure dans A, et aucune structure dans B. La profondeur logique du "tout" A et B" est donc plus grande que la somme de la profondeur logique de A et de la profondeur logique de B. C'est un théorème et l'énoncé général qu'on peut donner de cette situation est le suivant Quelle que soit la profondeur logique d'un objet numérique C, on peut construire deux objets numériques A et B, de telle façon que A et B soient chacun de profondeur logique minimale, et que le "tout" constitué de A et de B possède une profondeur logique équivalente à celle de C puisqu'il donne C. ComplexitéA union B > ComplexitéA + ComplexitéB Dans le cas de telles situations, on a bien deux objets dont l'ensemble a une complexité structurelle plus grande que la somme des complexités structurelles des parties. Enfin un cas général où la maxime d'Aristote prend un sens formel, précis et démontrable ! Le cas des systèmes complexes Je pense que ce n'est pas un hasard si pour réussir à donner un sens mathématique précis à la maxime d'Aristote en proposant une notion bien définie de valeur des objets qu'on combine, il a fallu se référer à la complexité structurelle telle que l'a définie Bennett et surtout pas à la complexité de Kolmogorov qui ne donnera jamais l'inégalité recherchée puisqu'on démontre qu'elle donne l'inégalité inverse . Il est probable que ceux qui évoquent ce "tout" qui est plus que la "somme" de ses "parties" ont en tête des situations où c'est bien l'organisation ou encore "la richesse en structures", "la valeur fonctionnelle", "le contenu en calcul" qui sert à mesurer ce que valent le "tout" et ses "parties". L'idée exprimée par la phrase d'Aristote est souvent fausse —elle intéresse d'ailleurs parce qu'on la perçoit comme paradoxale—, mais il y a des cas où le paradoxe devient vrai et prouvable ceux où ce qui mesure la valeur du tout est vraiment lié à une richesse en structures. Ces cas font l'intérêt de la maxime. Croire à la maxime et en faire un pilier philosophique des réflexions sur la complexité sans même chercher à savoir de quoi elle parle, ni si cela peut se mathématiser est une attitude ridicule puisque le plus souvent c'est l'inégalité inverse qu'on peut démontrer même quand on envisage la complexité des algorithmes ou la complexité de Kolmogorov. Disposer d'un cas précis où la maxime devient vraie est très éclairant, et je considère qu'avec l'exemple proposé, on a une preuve nouvelle du bien fondé de la définition de Bennett la complexité structurelle d'un objet fini Ob se mesure par le temps de calcul de son programme le plus court», ou, dans la version plus tolérante de la définition de Bennett, par le temps de calcul des programmes courts que produisent Ob». Il existe peut-être d'autres procédés formels non illusoires donnant un sens à la maxime d'Aristote, mais celui qui s'appuie sur la profondeur logique de Bennett appliquée à l'association de deux objets structurés et corrélés est probablement central du fait de sa place au sein de la théorie algorithmique de l'information qui est la théorie la plus générale de l'information. Dans les systèmes complexes, comme les sont les organismes vivants ou les écosystèmes, les interdépendances font qu'on est le plus souvent dans une situation semblable à celle des images A, B et C. Ce qui est apparu dans un premier temps l'exception y devient la règle. La complexité du "tout" mesurée par la profondeur logique de Bennett est donc, dans de telles structures, supérieure à la somme des complexités des "parties". Bien évidemment, Aristote ne pensait pas à la profondeur logique de Bennett, mais il me semble qu'aujourd'hui pour donner un sens technique à son intuition —et il ne faut jamais renoncer à de tels objectifs—, la meilleure méthode possible est de l'évoquer. Qu'il ait fallu deux mille ans pour que l'intuition du Stagirite trouve une forme mathématique robuste et devienne l'objet de science, n'est-ce pas la preuve, encore une fois, de son exceptionnel génie ! Sur la cryptographie visuelle voir Sur la profondeur logique de Bennett voir
Lebouquet est la partie du prix de vente du bien que vous allez payer en espèce au moment de la vente chez le notaire. Le montant pour ce bouquet sera fixé librement par le vendeur. Il pourra aller de 0 % à 100 % du prix de vente du bien. Il y a des vendeurs qui font une vente à terme sans bouquet. En général, le bouquet est sujet à des négociations entre les
Dans un univers commercial en pleine effervescence comme celui dans lequel nous vivons, il est plus important que jamais pour les importateurs de pouvoir compter sur le classement tarifaire de leurs marchandises importées et d’être en mesure de réagir rapidement en cas de conflit avec l’Agence des services frontaliers du Canada l’ASFC sur une question de classement, car une décision défavorable peut avoir une incidence importante sur la chaîne d’approvisionnement et la rentabilité des entreprises. On dit souvent que le classement tarifaire relève davantage de l’art que de la science. Pour s’en convaincre, il suffit d’examiner les décisions récentes rendues dans l’affaire RBP Imports Inc c. Président de l’Agence des services frontaliers du Canada1. Dans cette affaire, RBP Imports Inc. RBP avait interjeté appel d’une révision effectuée par l’ASFC à la suite d’un audit. Les marchandises en cause étaient des composantes de garde-corps en aluminium emballées individuellement, notamment des traverses supérieures et inférieures, des poteaux, des piquets, des barrières, des équerres, des épars et des entretoises. Ces marchandises sont conçues pour être combinées et former des garde-corps qui sont fixés à des constructions résidentielles et commerciales par des entrepreneurs ou par les consommateurs sur le marché du bricolage. Les audits de classification de l’ASFC et leur incidence sur les obligations en matière de droits de douane RBP avait importé les marchandises en les classant sous la position no de l’Annexe du Tarif des douanes à titre de barres et profilés en aluminium ». Au cours d’un audit, l’ASFC a constaté que les marchandises avaient été mal classées et qu’elles auraient dû être importées selon la position no en tant que constructions et parties de constructions ponts et éléments de ponts, tours, pylônes, piliers, colonnes, charpentes, toitures, portes et fenêtres et leurs cadres, chambranles et seuils, balustrades, par exemple, en aluminium, à l’exception des constructions préfabriquées du no tôles, barres, profilés, tubes et similaires, en aluminium, préparés en vue de leur utilisation dans la construction ». Le code tarifaire utilisé par RBP pour importer les marchandises était NPF et exonérée de droits », alors que le numéro tarifaire jugé correct par l’ASFC donnait lieu à un taux de droits NPF de 6,5 %. Par suite de la décision rendue à l’issue de l’audit, RBP aurait été tenue, en vertu de la Loi sur les douanes, de corriger rétroactivement pendant quatre ans à compter de la date de la décision de l’ASFC ses déclarations en douane pour toutes les importations de marchandises visées, et de payer des droits supplémentaires de 6,5 % ainsi que des intérêts et la TPS sur la valeur en douane de ces importations. Comme les marchandises en question étaient des produits d’aluminium, il fallait aussi tenir compte du Décret imposant une surtaxe aux États-Unis acier et aluminium2 applicable à certaines marchandises en provenance des États-Unis importées après le 1er juillet 2018. En l’espèce, une surtaxe de 10 % s’appliquait aussi aux deux numéros tarifaires en question, de sorte que RBP ne pouvait pas obtenir de remise de la surtaxe en utilisant un numéro tarifaire plutôt qu’un autre3. Par contre, si la surtaxe s’était appliquée au numéro tarifaire jugé exact par l’ASFC sans s’appliquer au numéro tarifaire utilisé par RBP pour importer les marchandises, RBP aurait été tenue de faire le paiement ou, le cas échéant, aurait pu demander une remise de la surtaxe de 10 % en plus des droits de 6,5 % déjà imposés par l’ASFC. Importance des notes explicatives Le Tribunal canadien du commerce extérieur le Tribunal a tranché en faveur de RBP dans une décision qui était en partie fondée sur son interprétation des Notes explicatives du Système harmonisé de désignation et de codification des marchandises les Notes explicatives4 applicables à la position no Premièrement, le Tribunal a conclu que la position no comprenait trois catégories distinctes, à savoir 1 les constructions, 2 les parties de constructions et 3 les pièces préparées en vue de leur utilisation dans la construction. Les notes explicatives pertinentes prévoient notamment ce qui suit Indépendamment des ouvrages énumérés dans le libellé même de la position, celle-ci comprend notamment […] des clôtures et garde-corps montés ». Le Tribunal a conclu dans une décision rendue le 2 mai 2017 que les garde-corps montés » faisaient partie des autres produits » visés par la position no indépendamment » des trois catégories en question de la position no Il n’a pas tenu compte du fait que le passage précité indiquait dans les termes les plus nets que la liste de produits cités était visée par la position no indépendamment » des 1 constructions et 2 parties de constructions uniquement. Le Tribunal a estimé qu’en utilisant l’adjectif montés » pour qualifier les garde-corps, le législateur avait l’intention d’exclure de la position no les pièces » de garde-corps les garde-corps démontés. Enfin, le Tribunal a rejeté, au motif qu’il ne permettait pas de trancher l’appel, l’argument que les marchandises étaient des pièces préparées en vue de leur utilisation dans la construction » au sens de la troisième catégorie de la position no L’ASFC a ensuite interjeté appel devant la Cour d’appel fédérale la CAF. À la CAF, la norme de contrôle applicable aux décisions du Tribunal est celle de la décision raisonnable. La Cour suprême du Canada a confirmé que cette norme tient dûment compte de l’expertise du Tribunal et du caractère technique et complexe du classement tarifaire5. Le 20 septembre 2018, la CAF a estimé que l’interprétation que le Tribunal avait faite des notes explicatives n’était pas raisonnable parce que le Tribunal avait en fait réécrit la note explicative »6. En conséquence de cette interprétation, le Tribunal n’avait jamais examiné, autrement que pour décrire les observations sur ce point comme ayant “une valeur limitée” et n’étant “pas déterminantes”, l’application de la troisième catégorie de la position no ». La Cour a renvoyé l’affaire au Tribunal pour qu’il examine l’application possible de la troisième catégorie de la position no Le Tribunal a réexaminé l’appel de RBP et, dans une décision datée du 11 février 20197, a estimé que, pour que les marchandises en cause puissent être considérées comme comprises dans le troisième volet de la position no elles devaient être préparées en vue de leur utilisation dans une construction; il ne suffisait pas que les marchandises soient préparées en vue de leur utilisation dans une partie de la construction. Le Tribunal a conclu que, même si les marchandises en cause étaient des pièces préparées en vue de leur utilisation dans une construction, les garde-corps montés n’étaient pas des constructions en soi, mais des parties de construction. Les marchandises en cause ne pouvaient donc pas être classées dans la position no en tant que pièces préparées en vue de leur utilisation dans la construction ». Le Tribunal a infirmé la nouvelle décision rendue par l’ASFC quant au classement des marchandises, et l’appel de RBP a finalement été accueilli. Quelles sont les incidences de cette décision sur les importateurs? Comme elle a obtenu gain de cause à la suite de son appel, RBP sera remboursée des droits et des taxes supplémentaires établis par l’ASFC à la suite de l’audit, plus les intérêts. De plus, elle aura désormais la certitude que le classement de ses marchandises importées est le bon. Les importateurs peuvent notamment obtenir un classement sûr tout en évitant de se lancer dans des contestations sans fin en demandant à l’ASFC de rendre une décision exécutoire sur le classement tarifaire. L’ASFC rendra une décision en matière de classement si certains critères sont respectés et si l’importateur est en mesure de démontrer le bien-fondé de son argument que le classement demandé est le bon. Cela étant, les décisions rendues par l’ASFC en matière de classement tarifaire peuvent être portées en appel si l’importateur qui a fait la demande n’est pas satisfait de la décision. Le président de l’ASFC est le premier palier d’appel. Les appels qui sont interjetés devant lui sont traités par la Direction des recours de l’ASFC, qui procède à un examen indépendant de la décision rendue par l’agent des décisions. Si l’importateur n’est pas satisfait de la décision du Président, il peut exercer d’autres recours devant le Tribunal, qui tient alors une audience. Appel peut être interjeté des décisions du Tribunal devant la CAF sur des questions de droit. Les entreprises œuvrant dans la vente internationale de marchandises, en particulier celles qui ont des chaînes d’approvisionnement complexes et de nombreux fournisseurs, devraient mettre en œuvre des procédures détaillées de conformité douanière si elles ne l’ont pas déjà fait et/ou procéder régulièrement à des examens internes de classification pour vérifier si des incertitudes persistent. Ce n’est qu’alors que des mesures appropriées pourront être prises pour régler les problèmes de conformité douanière. 1 AP-2016-017 2 DORS/2018-152. 3 Une remise du montant de la surtaxe peut être accordée, mais cette remise dépend de la description des marchandises et non du classement tarifaire. 4 Les Notes sont publiées par l’Organisation mondiale des douanes et sont incorporées par renvoi dans le Tarif des douanes. 5 Igloo Vikski Inc., 2016 CSC 38. 6 Canada Procureur général c. RBP Imports Inc., 2018 CAF 167. 7 AP-2016-017R.A vers l’Est B) vers le Sud C) vers l’Ouest D) vers le Nord E) aucun chemin ne satisfait les contraintes données Pour départager d’éventuels premiers ex æquo, le Kangourou pose deux questions subsidiaires. On appelle nombre pansu un nombre de 3 chiffres dont le chiffre du milieu est strictement plus grand que la somme des deux autres.