Archive for mai, 2013

29 mai 2013

Réalisme, instrumentalisme et vérisimilarité #Thema2

par marketingthema

Si vous êtes toujours vivant ou vivante et vous n’avez pas perdu conscience ceci est bon signe ;) vous être peut être un futur philosophe des sciences ! mais cette partie est assez importante elle traite du lien entre théorie et monde qu’elles sont censées expliquer.

Le réalisme selon chalmers : Une théorie vise à décrire le monde (stable) tel qu’il est réellement, la théorie rend donc compte d’une réalité. Notion de vérité, le monde existe indépendamment de nous. Une théorie sera vraie même si personne n’y croit, ou fausse même si tout le monde y croit.

Exemple : Théorie cinétique des gaz, Réalisme (vérité) ou instrumentalisme (fiction) ?

L’instrumentalisme : la composante théorique de la science ne décrit pas la réalité, les théories y sont vues comme des instruments conçus pour relier entre elles deux séries d’état observables. Les théories contient aussi une notion de vérité mais plus restrictive, ou on considère que la théorie est « utile ou pas » en tant qu’instrument pour la maitrise expérimentale du monde observable. L instrumentalisme est la position qui considère que les modèles scientifiques ne sont que des instruments nous permettant de concevoir commodément les phénomènes et, éventuellement, de les devancer par des prédictions. Dans sa version extrême il y’a séparation entre concepts théorique (fictions utiles pour faciliter le calcul), et concepts applicables aux situations observables.

read more »

Publicités
28 mai 2013

La théorie anarchiste de la connaissance par Paul Feyerabend #Thema2

par marketingthema

 Toutes les méthodologies ont leurs limites, et la seule « règle » qui survit, c’est « tout est bon » », Paul Feyerabend.

Dans ses livres Contre la méthode et Science in a Free Society (« La science dans une société libre », non encore traduit en français), Feyerabend a défendu l’idée qu’il n’existe pas de règles méthodologiques immuables dont les scientifiques devraient toujours se servir, et qui garantiraient de façon incontestable la validité de leurs recherches. Il a reproché à une telle méthodologie prescriptive de limiter le champ d’activité des scientifiques et de restreindre par là-même le progrès scientifique. Selon lui, une « dose » d’anarchisme méthodologique ne pourrait être que profitable à la science

Selon Feyerabend, les théories nouvelles ne sont jamais acceptées pour avoir respecté une démarche scientifique, mais parce que ceux qui la soutenaient se sont servis de toutes les astuces possibles –qu’elles consistent dans des arguments rationnels, des artifices rhétoriques ou dans de la pure propagande– pour faire avancer leur cause. Dès lors, la seule approche qui ne nuit pas au progrès est « tout est bon » (anything goes). A condition de ne pas verser dans l’extravagant selon Feyerabend

Feyerabend pensait également que l’incommensurabilité des théories, c’est-à-dire le fait de ne pouvoir comparer directement les théories parce qu’elles sont basées sur des suppositions incompatibles, pourrait également empêcher l’utilisation de critères généraux pour définir la qualité de théories scientifiques. Il n’est pas de théorie supérieure à une autre, puisqu’en aucun cas les théories scientifiques n’appréhendent le réel à partir des mêmes axes, selon lui. (exemple des lois mécaniques de newton et la relativité d’einstein qui sont complétement différents, le matérialisme et le dualisme esprit-matière)

 

read more »

27 mai 2013

Quatrième Point : Objectivisme, rationalisme et relativisme #Thema2

par marketingthema

En observant les parties précédentes, nous avons vu des tentatives de mettre place des sortes de Framework pour l’évolution des sciences qui aussi leur démarcation entre science et non science. Dans cette partie on verra la démarcation sous de nouvelles perspectives.

A- Rationalisme versus Relativisme pour démarquer les théories : La rationalisme extrême pose l’existence d’un critère universel et ahistorique permettant d’évaluer les théories rivales et de délimiter la science de non science (Pour l’inductiviste par exemple ca sera l’observation, alors que pour le falsificationiste ca sera la falsifiabilité de la théorie).

read more »

24 mai 2013

Troisième courant épistémologique : Les théories comme des structures #Thema2

par marketingthema

A- Les programmes de recherche de IMRE LAKATOS (Le mi-chemin entre Popper et Kuhn), ou l’apogée du falsificationisme

Les théories doivent être considérées comme des structures. L’inductivisme avec les lois dérivées de l’observation, aussi bien que la logique falsificationniste de conjecture et réfutation échouent à expliquer clairement le développement des sciences (ex: Développement de la théorie de Copernic sur plus d’un siècle). Au delà de cet aspect historique qui nous amène vers une lecture des théories comme des structures évoluant dans le temps, la structuration des théories permet d’utiliser un jargon précis relatif à la théorie ce qui lui confère un aspect de précision et d’exactitude requis pour les sciences (parler de masse dans les lois de newton est précis, parler de démocratie c’est aborder un mot vague).

Les scientifiques travaillent dans le cadre de programmes de recherche scientifique qui comportent un noyau dur et une ceinture protectrice d’hypothèses auxiliaires. Seules ces dernières sont soumises à réfutation. Un programme de recherche est caractérisé à la fois par une heuristique positive (ce qu’il faut chercher et à l’aide de quelle méthode) et une heuristique négative (les domaines dans lesquels il ne faut pas chercher et les méthodes qu’il ne faut pas employer).

Un programme de recherche peut être progressif (générateur de connaissances nouvelles, capable de prédire des faits inédits et d’absorber les anomalies, gagnant en influence) ou régressif (devenu incapable de prédire des faits inédits, perdant de l’influence et des adeptes parmi les scientifiques). Des programmes de recherche concurrents peuvent donc coexister durablement, ce qui contribue à expliquer la vivacité des débats scientifiques.

read more »

23 mai 2013

Second courant épistémologique : Le falsificationnisme par Karl Popper #Thema2

par marketingthema

Le falsificationiste n’a aucun mal à admettre que l’observation est guidée par la théorie dont elle présuppose l’existence ! et il renonce à toute prétention d’établir la vérité des théories – ou leur vérité probable – à partir des faits d’observations. La science progresse par essais et erreurs (trial and fail), par conjectures et réfutations.

Une fois énoncés, les théories spéculatives (ou conjectures) doivent être confrontées rigoureusement et impitoyablement aux tests de l’observation est l’expérience ! seules les théories les mieux adaptés survivent ! une théorie ne sera jamais vraie, elle sera la meilleure disponible jusqu’à preuve du contraire !

La logique appuie le falsificationnisme : la fausseté des énoncés universels peut être déduite d’énoncés singuliers appropriés. Exemple : si on aperçoit une fois à un instant t à un lieu x que le corbeau n’est pas noir, la conclusion depuis cette prémisse devient que tous les corbeaux ne sont pas noirs et par conséquent il y’a effondrement de l’énoncé universel que les corbeaux sont tous noirs !

Toute hypothèse doit donc être falsifiable pour accéder au statut de loi ou théorie ! la logique doit autoriser l’existence d’un énoncé ou une série d’énoncés d’observation qui lui sont contradictoires, c’est à dire qui la falsifieraient si ils se révélaient vrais !

Exemples falsifiables : (Loi porteuse de valeur informative)

– il ne pleut jamais les mercredis       //  Les corps se dilatent quand ils sont chauffés

Exemples non falsifiables : (ne nous apprend rien sur le monde ! ils seront toujours vrais, le monde aura toute les propriétés  )

– Soit il pleut soit il ne pleut pas  // On peut avoir de la chance dans les paris sportifs

read more »

23 mai 2013

Smart experiments : Pourquoi on a 150 amis et pas plus ?! #Thema2

par marketingthema

Le nombre de Dunbar est le nombre maximum d’amis avec lesquels une personne peut entretenir une relation stable à un moment donné de sa vie. Cette limite est inhérente à la taille de notre néocortex. Elle est estimée par Robin Dunbar à 148 personnes1 et a une valeur admise en pratique de 150 personnes2,3.

Ce nombre provient d’une étude publiée en 1993 par l’anthropologue britannique Robin Dunbar. Dans cette étude, le chercheur analyse la taille du néocortex de différents primates et la compare au nombre d’individus de leurs groupes respectifs. Il a ainsi extrapolé ses résultats afin de déterminer un nombre maximum pour la taille d’un groupe d’humains. Ce nombre ne devrait donc théoriquement pas dépasser 150 individus (résultat confirmé par les travaux de l’anthropologue Franck Fumsek). Au-dessus de ce nombre, la confiance mutuelle et la communication ne suffisent plus à assurer le fonctionnement du groupe. Il faut ensuite passer à une hiérarchie plus importante, avec une structure et des règles importantes (on le voit par exemple à l’échelle d’un pays et de son gouvernement).

read more »

22 mai 2013

Premier courant ou programme : L’inductivisme « Naif » #Thema2

par marketingthema

Le savoir est issu des faits de l’éxpérience selon l’inductiviste « naif » ! la science commence simplement pas l’observation. L’induction consiste à se fonder sur l’observation de cas singuliers pour justifier une théorie générale ; c’est l’opération qui consiste à passer du particulier au général. Le problème est de savoir s’il peut être épistémiquement valide de croire que les théories universelles sont justifiées voire vérifiées par la seule prise en compte d’un grand nombre d’observations singulières passées.

L’énoncé universel/général = Somme (des énoncés singuliers) — A force de voir le caractère A se répéter chez les oiseaux B, ont dit que tous les B ont le caractère A

Un énoncé universel est construit sur 3 fondements : Nombre de répétitions important des énoncés singuliers + énoncés singuliers répétés dans un large nombre de conditions + aucun énoncé singulier ne doit être en conflit avec un l’énoncé universel

Séquence de l’inductivisme : Faits >>>induction >>>Lois générales >>>déduction logique >>>prédiction et explication

Si les prémisses (1) et (2) sont fausses la conclusion (3) le sera aussi ! exemple : si (1) est un énoncé singulier qui dit que l’animal observé est un chat, et que l’énoncé universel (théorie) dit que tous les chats ont 5 pattes (2), il y’a de fortes chances de conclure que le chat observé a 5 pattes (3) par déduction logique ! donc la logique n’a pas empêché l’erreur de conclusion !

On appelle conditions initiales, les énoncés décrivant avec précision la configuration de l’étude (dispositif expérimentaux), ce sont les conditions dans lesquelles le test ou l’observation s’est déroulée et il est déterminant de les conserver.

read more »

20 mai 2013

Smart expriments : Obedience to Authority by Stanley Milgram #Thema2

par marketingthema

Stanley Milgram (15 août 1933 à New York dans le quartier du Bronx120 décembre 1984 à New York) est un psychologue social américain. Il est principalement connu pour l’expérience de Milgram (sur la soumission à l’autorité) et l’expérience du petit monde. Il est considéré comme l’un des psychologues les plus importants du XXe siècle2.

Sa fameuse expérience, l’expérience de Milgram, devient largement connue à partir de 1963.

read more »

19 mai 2013

Smart experiments : Six degrees of separation, la théorie du petit monde #Thema2

par marketingthema

Pour cette expérience, un agent de change de Boston est choisi comme « individu-cible », et trois groupes de départ d’une centaine de personnes chacun sont constitués aléatoirement, l’un composé d’habitants de Boston choisis au hasard, le deuxième d’habitants du Nebraska choisis au hasard, et le troisième d’habitants du Nebraska aussi, mais qui présentent la particularité d’être détenteurs d’actions. Chaque individu de ces groupes de départ reçoit un dossier décrivant l’expérience et l’individu-cible (son lieu de résidence et sa profession en particulier), et a pour mission de faire parvenir ce dossier par la poste, soit directement à l’individu-cible s’il le connaît personnellement, soit à une personne qu’il connaît personnellement et qui a une plus grande probabilité de connaître personnellement l’individu-cible.

Sur les 296 individus des groupes de départ, 217 ont accepté de participer à l’expérience et ont expédié le dossier à une de leurs connaissances, et finalement, 64 dossiers sont parvenus jusqu’à l’individu-cible, au terme de chaînes de connaissances de longueurs variables, mais dont la longueur moyenne était de 5,2 intermédiaires.

19 mai 2013

Big Data et Marketing : pour mieux engager le consommateur

par marketingthema

À défaut d’être massivement adoptées, les technologies Big Data sensibilisent de plus en plus les professionnels de l’informatique et prioritairement du marketing.

Un intérêt grandissant pour le Big Data

Déjà en 2012, les montants des investissements engagés par les grands acteurs de la donnée ou les estimations des analystes permettaient de mesurer l’impact macro-économique actuel et à venir du Big Data (voir l’article e-media Big Data : un secteur florissant).

De nouveaux indices permettent de mesurer la plus forte sensibilisation des professionnels de l’informatique à ce sujet. Dans un registre quantitatif et qualitatif, on peut citer le récent succès de la 2e édition du salon Big Data à Paris : un nombre d’exposants multiplié par 2, une audience qui a triplé en un an, des conférences très constructives selon les organisateurs et participants, des projets plus innovants, preuves de « la maturité du phénomène » conclut 01Business.

Utiliser le big data pour mesurer l’intérêt global du big data est un autre type d’exercice auquel s’est plié DataSift. Cette société spécialisée dans l’analyse des réseaux sociaux a étudié les mentions Big Data sur Twitter. À titre promotionnel certes mais avec des résultats qui apportent un éclairage intéressant, tant sur le phénomène Big Data que sur l’application marketing du Big Data. DataSift a comptabilisé pour 2012 plus de 2 millions d’interactions générées par près d’un million de membres et a constaté une augmentation de + 25 % dès le 2e semestre 2012 des tweets, majoritairement orientés sur le partage de connaissances sur ce phénomène des gros volumes de données.

©DataSift

read more »

19 mai 2013

Les structures organisationnelles #FR #Thema2 Part-7

par marketingthema

Henri Mintzberg

Définition : La structure est la somme totale des moyens employés pour diviser le travail en tâches distinctes et pour ensuite assurer la coordination nécessaire entre ces tâches. Diviser et coordonner

MINTZBERG DISTINGUE 6 PARTIES CLES 

Et l’idéologie : (traditions et croyances qui distingue une organisation d’une autre)

read more »