23 juillet 2016

Attentat de Nice – Responsables et coupables – L’analyse de F. Asselineau

par Yassine EL BOUCHIKHI

Excellente analyse à partager et diffuser face au « blackout » médiatique en France … les français doivent savoir!

22 juillet 2016

Horizon – « …. Il aura la femme ! » Mythologie publicitaire de la voiture #Semiologie #Marketingthema

par Yassine EL BOUCHIKHI

 » Il a l’argent, il a le pouvoir, il a une Audi….. Il aura la femme », voilà la célèbre formule d’une publicité pour une voiture datant de 1993, formule qui en dit déjà long sur les représentations et mythes véhiculés par la publicité.

Dans cet épisode, Gull enquête sur la mythologie contemporaine, plus particulièrement l’automobile dans la publicité. Car, oui, nous n’avons jamais été aussi imprégnés par les mythes qu’à notre époque.

Vous trouverez les références complètes ici: http://www.hacking-social.com/2016/07…
Site: http://www.hacking-social.com

15 juillet 2016

#FlashMethod : Analyse séquentielle et expérimentation au fil de l’eau #Marketingthema

par Yassine EL BOUCHIKHI

Très souvent toutes les méthodes de tests d’hypothèse et d’expérimentation classiques se basent sur des tailles d’échantillon fixées au départ. Aujourd’hui, on présente une méthode assez peu mobilisée et pourtant très intéressante qui permet d’utiliser des échantillons dont la taille n’est pas connue à l’avance. Ainsi, les données sont évaluées au fur et à mesure de leur disponibilité et le test s’arrête selon une règle prédéfinie une fois qu’on a obtenu des effets ou résultats significatifs. Assez souvent, ce type de méthodes permet donc d’avoir des résultats statistiquement fiables avec des tailles d’échantillon réduites au strict minimum.

Il existe plusieurs familles de tests statistiques conçus spécifiquement pour ce type d’approches, comme par exemple: (Test du rapport de vraisemblance,  Test triangulaire, Test restreint,  Test répété, Taux de signification à la sortie, Facteurs pronostiques).

Le test séquentiel a 3 hypothèses et non 2 comme pour les cas classiques:

1- H0 Hypothèse nulle 

2- H1 Hypothèse alternative

3- H2 Besoin de plus de données, information insuffisante

Ce genre de méthodes peut être utilisé pour de l’ A/B Testing par exemple, ainsi que toutes les dispositions expérimentales ou on peut avoir besoin de prendre une décision chemin faisant. Certains travaux remontent au début du siècle dernier ou la méthode était déjà utilisée pour des essais cliniques, mais c’est une approche originale qui mérite d’être redécouverte notamment dans les recherches en management!

Ressources: 
  • Guy HÉDELIN : Cours de statistique 
  • Simple Sequential A/B Testing 
  • Mukhopadhyay, Nitis, and Basil M. De Silva. Sequential methods and their applications. CRC Press, 2008.
  • Doucet, Arnaud, Nando De Freitas, and Neil Gordon. « An introduction to sequential Monte Carlo methods. » Sequential Monte Carlo methods in practice. Springer New York, 2001. 3-14.

YB

14 juillet 2016

What if most scientific papers & rules were false? #P-value #ABTesting #Marketingthema

par Yassine EL BOUCHIKHI

This is not a joke nor a teasing title! Medical studies, humanities, business research, psychology, etc … everybody is concerned! Actually, it’s a very serious issue about the flaws of P-value used as a scientific objective mean for rejecting the null hypothesis. This kind of statistical validation is being held in all scientific fields as the mainstream way to establish a rule or a scientific law or make a result accepted and published. The way we report our experiments via P-value gives as the false illusion of precision and validity!

In a famous paper published by Loannidis in 2005 (Why Most Published Research Findings Are False) the author conducted simulations proving that most scientific results are more likely to be false than true. The chase of statistical significance is not a warranty that the results are true. According to the author the bias could be coming from many elements such as : weak effects, experimental design flexbility, sample sizes, etc… Obtaining a significant P-value can be the result of chance and not the evidence of an effect (the opposite is also true, where research can be unable to observe a true hidden effect).

Pr. Geoff Cumming defends the idea of a « New statistics » way of working to ensure that we report in research  the confidence intervals instead of the misleading P-value. The above video is a simulation explaining how P-value is also in someway a kind of -random metric- depending on other parameters! and that the only way for science to advance is to express results as an estimation or likelihood confidence interval to compare. 

Researchers should conduct many experiments and encourage metanalysis that aim to make those confidence intervals smaller (more precise) by replication and comparing if those effects can validate (or invalidate) our expectations or research conjectures.

This approach will reset the way we do research by creating incentives to search for the cummulative truth, instead of looking for an artificially probably biaised P-value. It’s also a more humble, honnest and precise way to share scientific research findings and to boost the cummulative aspect of science instead of seeking unreliable novelty or working with a silo research mindset. Our P-values gives us very poor information and exposes heavily research to the danger of false inferences. 

Ressources to consult :
www.thenewstatistics.com : The excellent website of Pr. Cumming, you can download here ESCI software (Excel files) that allow you to run experiments and simulations manually & discover how P-value can be tricky and misinform research.
Buy or rent the book : Cumming, Geoff. Understanding the new statistics: Effect sizes, confidence intervals, and meta-analysis. Routledge, 2013. (A new version will be published in August 2016)

Author: Yassine El Bouchikhi

13 juillet 2016

Pokémon GO: 21 millions d’usagers en 24H! Quelles perspectives pour la réalité augmentée? #Marketingthema

par Yassine EL BOUCHIKHI

Le nouveau lancement du jeu sur smartphone Pokemon Go est un succès planétaire! En effet, selon NBC News Le jeu de Nintendo aurait pulvérisé tous les records en 24h de lancement! Rien d’étonnant quand on observe à quel point les smartphones et les applications mobiles sont devenus des produits d’information hautement addictifs! Il s’agit d’une vraie extension digitale de soi comme le disait Russel Belk.

Ce qui est intéressant dans le Pokémon Go n’est pas tant son originalité, ou il faut chercher des Pokémons un peu partout dans la ville pour les collectionner et les échanger! Le plus inspirant à mon avis, c’est qu’est ce qu’on peut faire et créer comme nouvelles applications de cette réalité augmentée. Google, avait lancé par ailleurs bien avant Nintendo un concept similaire qui s’appelait Ingress et qui permettait de chercher des portails aussi dans toute la ville, en suivant les indications géolocalisées de son smartphone et d’entrer ainsi en compétition avec d’autres joueurs d’équipes adverses. J’ai eu l’occasion de l’essayer en 2015 au Maroc, c’était assez amusant! mais pas assez attractif pour m’investir et marcher dans la ville avec un smartphone à la main pour chercher des portails un peu partout! En plus au Maroc, il fallait chercher le portail (virtuel) et se protéger du risque d’agression de voleurs (bien réels):) Jouer deux jeux en même temps, j’étais pas très motivé encore!😉

Avant Pokémon Go, Google avait déjà lancé Ingress bien avant! 

La fusion immersive entre la réalité et l’aspect digital peut créer un aspect cognitivement absorbant et émotionnellement stimulant qui peut devenir extrêmement addictif. 

Read more ……

Lire la suite

13 juillet 2016

#Tendances : Le recrutement prédictif déniche le meilleur salarié grâce aux algorithmes

par Yassine EL BOUCHIKHI

Source illustration: http://rmsnews.com/

Présents dans la finance et dans le marketing, les algorithmes commencent à s’imposer dans le secteur du recrutement.

 Le BHV Marais a trouvé la solution pour trouver la perle rare et éviter les erreurs de casting : le recrutement prédictif. « Il s’agit d’une technique qui permet, grâce à des algorithmes, d’anticiper de manière fiable les probabilités de réussite d’un salarié. Par réussite on entend sa performance et le fait d’être heureux et engagé dans son travail », explique David Bernard, directeur d’AssessFirst, une entreprise spécialisée dans la conception de plateformes de recrutement prédictif.

« L’utilisation de modèles prédictifs basés sur des algorithmes existe depuis une vingtaine d’année dans la finance ou dans le marketing pour prédire le comportement du consommateur. Depuis 2014, ce type de modèle commence à séduire le monde du recrutement car il réduit les incertitudes », estime David Bernard. L’offre de recrutement prédictif d’AssessFirst existe depuis 18 mois et a déjà réalisé 18 000 recrutements.

Aujourd’hui de plus en plus d’entreprises se présentent sur ce marché, des mastodontes des ressources humaines comme Cornerstone aux entreprises spécialisées dans les tests psychométriques comme CEB ou encore le québécois D teck.

Lire la suite sur le journal du Net

13 juillet 2016

Research in the Crowdsourcing Age, a Case Study #Amazon_Mechanical_Turk #Trends #Marketingthema

par Yassine EL BOUCHIKHI

After the goods and services platforms, here is the ultimate uberisation of human intellectual forces … 

How scholars, companies and workers are using Mechanical Turk, a ‘gig economy’ platform, for tasks computers can’t handle

BY

Digital age platforms are providing researchers the ability to outsource portions of their work – not just to increasingly intelligent machines, but also to a relatively low-cost online labor force comprised of humans. These so-called “online outsourcing” services help employers connect with a global pool of free-agent workers who are willing to complete a variety of specialized or repetitive tasks.

Because it provides access to large numbers of workers at relatively low cost, online outsourcing holds a particular appeal for academics and nonprofit research organizations – many of whom have limited resources compared with corporate America. For instance, Pew Research Center has experimented with using these services to perform tasks such as classifying documents and collecting website URLs. And a Google search of scholarly academic literature shows that more than 800 studies – ranging from medical research to social science – were published using data from one such platform, Amazon’s Mechanical Turk, in 2015 alone.1

The rise of these platforms has also generated considerable commentary about the so-called “gig economy” and the possible impact it will have on traditional notions about the nature of work, the structure of compensation and the “social contract” between firms and workers. Pew Research Center recently explored some of the policy and employment implications of these new platforms in a national survey of Americans.

Read more here ….. 

12 juillet 2016

Crowdculture: The ideology comes from the crowd new subcultures … #HBR #Marketingthema

par Yassine EL BOUCHIKHI

Branding is dead, long live Crowdculture

By Lloyd Melnick

While many companies, both in the tech space and traditional companies, have invested billions in building their brand via social media, success stories are about as rare as a user acquisition company that does not promise better users for less money. While many companies have spent, and continue to spend, millions trying to tell stories and connect directly with their customers on social media, brands now seem less significant. An article in the Harvard Business Review,Branding in the Age of Social Media by Douglas Holt, shows that branding has been replaced by crowdculture. Holt writes that “Crowdculture changes the rules of branding—which techniques work and which do not.”

The history of branded content

Holt first points out that branded content is an outdated concept rather than an innovative marketing technique. Advertising campaigns like American Express’ Don’t Leave Home Without It (1975) and Nike’s Just Do It (1988) became part of popular culture by entertaining audiences. These campaigns worked because the entertainment media were oligopolies, limiting cultural competition. Only a few television networks and movie companies distributed content, so consumer marketing companies could buy their way to success by paying to place their brands in this tightly controlled cultural arena.

Technology has allowed people to opt out of ads, first with cable and satellite television then to DVRs and finally the Internet. For the first time, advertisers had to compete with real entertainment. Companies adjusted by creating entertainment content, such as BMW’s short movies for the Internet. These early (pre-social-media) digital efforts led companies to believe that if they delivered Hollywood-level creative, they could gather huge engaged audiences around their brands. Thus was born the great push toward branded content. But its champions did not think about, or at least discuss, new competition. This new competition was not from existing big media companies but from the crowd. Lire la suite

12 juillet 2016

De #WaldenTwo à #1984 > Des discours et comportements façonnables à volonté! #Marketingthema

par Yassine EL BOUCHIKHI

Petit rappel sur le modèle à trois niveaux de Skinner: 

Les travaux de Skinner sur la modification des comportements des adultes et des enfants n’ont jamais été autant d’actualité pour questionner la nature des discours portés par le système social moderne! Beaucoup de gens, pensent en effet que leurs avis sont leur propriété et le fruit de leur réflexion ayant maturée au fil des années et des expériences. Mais ca serait sous estimer grandement l’influence de l’écosystème institutionnel sur leurs opinions et leurs comportements! Nous sommes la résultante psychologique d’un système dominant de pensée qui nous dicte des règles et des schémas de pensée et de comportement acceptables ou pas! Pour mieux le comprendre, Skinner avait proposé un système qui opère via 3 étapes simples:

  • Etape 1 : Définir ce qui est désirable comme comportement (Demander poliment, se laver poliment, accepter ou refuser un certain discours, etc)
  • Etape 2 : Définir les comportements indésirables (Ne pas crier, ne pas avoir certains comportements, ne pas questionner certaines versions ou faits politiques ou historiques, etc ..)
  • Etape 3 : Décider du renforcement positif à offrir en cas de comportement adapté, décider de ce qu’on peut ignorer et ne pas réagir, et décider quels comportements sont passibles de punition (renforcement négatif).

Pour que ce dispositif fonctionne Skinner recommande 2 mots clés :

  1. Constance  : Il est indispensable de maintenir la règle et réagir à chaque fois de façon systématique.
  2. Fermeté     : Bien respecter le programme sans changer de cap!

Le roman utopique de Skinner Walden Two (1948) pour atteindre la cité utopique se base justement sur cette approche. L’auteur affirme qu’il est pleinement possible de normer les comportements et les discours via un tel système de pilotage social, politique et économique.

https://en.wikipedia.org/wiki/Walden_Two

 

 

 

12 juillet 2016

Do you know #Knime ? How marketers could use this tool #Marketingthema

par Yassine EL BOUCHIKHI

I first discovered Knime while i was working on a project for Paris Dauphine University in 2015. I was looking for an open source tool that can help me to automate some ETL & reporting tasks for the library …. then i discovered the open projet Knime! It was really great! Knime allowed me to establish a reporting solution with the included Birt reporting engine! Used in conjunction with a french librarian’s tool called Ez-Paarse for parsing webpages! the task was quite challenging with millions of « anonymous » logs tracing the electronic ressources usage of the library! But Knime made the task simple and fun! Here is a screen capture of some of the workflows developped:

Capture

Screenshot of one workflow used to establish the reporting for the library (2015)

Each node was configured, and i connected the data with a local Mysql Database monthly updated.

Knime is very rich, and very intuitive and visually attractive compared to other classical tools! My first contact with Knime reminded me of some very good quality commercial solutions like IBM SPSS Modeler or SAS Entreprise Guide … but this time it was for free!:) Also Knime, is having a huge advantage : Extensions!

  • Social media King (connect the api & play): This extensions can for example be connected with social networks like Twitter, Youtube, and also Google! You can then do some text mining for Tweets, scrapped webpages, or even Youtube videos for given keywords! This can be very practical for a marketing departement who is conducting monitoring activities on social media, or for consulting firms that want to track a brand or even collect detailed data.
  • Forecast massive series with ease: I used to work on a forecasting project for Suez environment (energy) in Casablanca Morocco, the task was to find a good solution to conduct large automatic forecasting solution to predict the consumption for more than 2 millions consumers. I have consulted SAS & also SPSS and conducted some statistical and functional tests to observe how our statistical systems will perform with more than 120 millions of rows (5 years of historical data), some solutions were expensive or not completely appropriate for this task! Knime has the solution with the Arima extension & Time series! it needs some fine tuning, but the tool is perfect!
  • Integration with R & Weka : Are you looking for more packages? Facebook? structural equations models?! Bayesian nodes?! don’t worry! you can make the tool integrated with R extensions and execute your code according to your project needs!

The community behind Knime is very active and nice! if you have any question you will find a helpful « Knimer » to help you! Datamining is very simple & logical especially with the available current tools! Marketers shouldn’t be afraid to invest and learn those new skills of great value! if used with a structured approach, this kind of tools can leverage huge advantages for the corporations! It’s all about finding the right mix between creative & scientific design to answer concrete facts!

Knime can be a great new friend for the curious minds!:)

More about Knime & use cases can be found here : https://www.knime.org/

 

 

11 juillet 2016

KH coder : Comment faire de l’analyse de contenu ou du Text-mining avec de l’opensource #Marketingthema

par Yassine EL BOUCHIKHI

Vous cherchez un outil gratuit et performant en Text-mining? Vous avez utilisé les solutions du marché classiques comme Sphinx lexica, MaxQDA, Rapidminer etc …. et vous voulez trouver autre chose?!

Voici un excellent outil open source pour faire du Text mining. L’avantage de cet outil est la grande richesse des méthodes qu’il propose pour faire des analyses textuelles bien avancées. J’ai découvert cet outil un peu par hasard et je l’ai testé pour vérifier ses capacités analytiques, et le moins qu’on puisse dire c’est qu’il est vraiment un bon compagnon analytique à utiliser pour ses projets qualitatifs.

L’outil a été développé par un professeur japonais (M. Koichi Higuchi) et il se base sur un moteur analytique R et une solution Mysql intégrée. L’outil permet de faire de l’analyse de contenu avancée en anglais, français, portugais, italien et espagnol.

Voici la liste extraite de Sourceforge des fonctionnalités de l’outil, je vais couvrir que les plus originales à mon avis:

  • Words: Frequency List (L’outil permet de sortir les fréquences de chacun des mots avec aussi une réprésentation visuelle de la loi de Zipf)

quick-start-tutorial-of-kh-coder-quantitative-content-analysis-or-text-mining-of-english-language-data-9-638

  • Words: Searching
  • Words: KWIC Concordance (Extraire le contexte de mots pivots n’a jamais été aussi facile! il est possible avec cet outil d’identifier toutes les séquences de texte ou le mot apparaît, on peut aussi en spécifier la profondeur « ici 20 mots à gauche et droite du mot pivot ») 

030_kwic

  • Words: Collocation Stats:  (Une des brillantes fonctionnalités de l’outil est de créer des vecteurs pour chacun des mots du corpus textuel, ceci permet donc de voir pour chaque mot « pivot » quels sont les mots qui le suivent souvent ou le précédent! dans le livre de Laurence Bardin sur l’analyse de contenu l’auteur évoque la notion d’association des mots. Par exemple, dans ce corpus le mot « Think » est très souvent associé à « porcupine » et il est plus souvent avant ce mot « 4LT » au lieu de « 3RT » on peut même déduire la proximité avec plus de précision et aussi exporter ces données pour faire d’autres types d’analyses quantitatives! bref, il y’a de quoi se faire plaisir!) 

040_coloc

  • Words: Correspondence Analysis (L’analyse de correspondance est une méthode de visualisation des données qualitatives, on l’appelle aussi AFC! elle permet de représenter sur 2 dimensions visuellement comment 2 variables d’intérêt ou dimensions se rapprochent! par exemple ici on voit les chapitres d’un livre et les mots qui les caractérisent! on aurait pu par exemple créer dans l’outil des catégories comme (individus, lieux, etc ) et voir quels mots sont utilisés pour les caractériser! la taille des bulles indique leur fréquence dans le corpus analysé). Dans ce cas par exemple, les 2 dimensions retenus résument plus de 45% des données du corpus. 

correspondance

  • Words: Multi-Dimensional Scaling : (Il s’agit d’une méthode utilisée pour étudier la proximité et la similarité des mots sur une carte bidimensionnelle. Le but étant de découvrir les unités qui se ressemblent le plus sur la base des attributs observés dans le corpus « Fréquence, Distance, etc ») 

080_mds2d

  • Words: Co-Occurrence Network  : (Le réseau des co-occurrences permet de voir une cartographie visuelle des mots les plus fréquents et comment ils sont connectées avec d’autres mots. Ceci peut par exemple être utilisé pour caractériser un discours politique, ou d’une marque ou argumentaire pour identifier quel est le coeur du message et quels sont les mots mobilisés pour l’exprimer, ainsi que leur articulation) 

cooccurence

  • Words: Hierarchical Cluster Analysis (L’outil fait une typologie qui classifie tous les mots qui apparaissent souvent ensemble! ceci est très pratique pour agréger de larges verbatims en des familles de mots fréquents ou grappes de sens tout en offrant leur fréquence d’apparition relative)

060_cluster1

  • Categories: Developing Your Own Categories or Dictionaries (L’outil permet de créer des catégories ou « thèmes » qu’on peut analyser dans le cadre d’une analyse de contenu! et on peut faire toutes les opérations précédentes réservées pour les mots pour ces nouvelles « catégories » crées) 
  • Categories: Frequency List : (Après le codage, il est possible de savoir quelles sont les catégories les plus abordées! par exemple grouper les mots « Israel , Sionisme, tsahal » sous la catégorie colonialisme et les mots « Boycott, antisionisme, résistance palestinienne » sous la même catégorie:  « résistance à l’occupation » vous permet de compatabiliser dans un texte combien de fois chacune des catégories revient dans un discours)  
  • Categories: Cross Tabulation : (Il est possible là encore de faire des croisements avec ces catégories artificielles crées à partir de simples mots, pour avoir des tableaux de contigence bivariés) 
  • Categories: Correspondence Analysis (Idem que pour les mots) 
  • Categories: Multi-Dimensional Scaling (Idem que pour les mots) 
  • Categories: Co-Occurrence Network (Idem que pour les mots) 
  • Categories: Hierarchical Cluster Analysis (Idem que pour les mots) 
  • Documents: Searching
  • Documents: Clustering  (Permet de classer automatiquement les documents en fonction de leur contenu! par exemple des articles de recherche, des contenus de presse etc peuvent être classés automatiquement) 
  • Documents: Naive Bayes classifier (Idem que pour la classification, ceci permet d’utiliser la classification bayésienne beaucoup moins gourmande en termes d’unités statistiques requises pour prendre une décision. Vos documents sont ainsi triés et organisés en fonction de leur contenu)

Page officielle de l’outil : http://khc.sourceforge.net/en/

11 juillet 2016

Harvesting Facebook data from IBM SPSS Statistics #Socialmedia #Analytics #R #Python

par Yassine EL BOUCHIKHI

 

11 juillet 2016

Are you a frequentist or bayesian mind? An Intuitive (and Short) Explanation of Bayes’ Theorem

par Yassine EL BOUCHIKHI

Bayesian way of thinking is a very smart way to do statistics in a different matter! discover in this smart article makes this approach interesting to test hypothesis in an original way

————————————

Bayes’ theorem was the subject of a detailed article. The essay is good, but over 15,000 words long — here’s the condensed version for Bayesian newcomers like myself:

  • Tests are not the event. We have a cancer test, separate from the event of actually having cancer. We have a test for spam, separate from the event of actually having a spam message.
  • Tests are flawed. Tests detect things that don’t exist (false positive), and miss things that do exist (false negative).
  • Tests give us test probabilities, not the real probabilities. People often consider the test results directly, without considering the errors in the tests.
  • False positives skew results. Suppose you are searching for something really rare (1 in a million). Even with a good test, it’s likely that a positive result is really a false positive on somebody in the 999,999.
  • People prefer natural numbers. Saying “100 in 10,000″ rather than “1%” helps people work through the numbers with fewer errors, especially with multiple percentages (“Of those 100, 80 will test positive” rather than “80% of the 1% will test positive”).
  • Even science is a test. At a philosophical level, scientific experiments can be considered “potentially flawed tests” and need to be treated accordingly. There is a test for a chemical, or a phenomenon, and there is the event of the phenomenon itself. Our tests and measuring equipment have some inherent rate of error.

Read more here

8 juin 2016

Catégorisation CNRS des revues académiques : Mai 2016 #CNRS #Marketing

par Yassine EL BOUCHIKHI

Catégorisation des revues (mai 2016, format « pdf »)

Introduction par le Président de la section 37 (mandature 2012-2016)

Jean-Benoît Zimmermann, Directeur de recherche au CNRS

La liste des revues de la section 37 du Comité National de la Recherche Scientifique est désormais devenue un outil de référence incontournable et largement reconnu au plan français mais aussi international.

Une telle liste n’a de valeur que dans la mesure où elle vit, c’est-à-dire qu’elle peut suivre et s’adapter aux évolutions du paysage des publications scientifiques dans lesquelles de nouvelles revues apparaissent, d’autres disparaissent, d’autres montent en qualité du fait de leur politique éditoriale ou aussi de la manière dont la communauté scientifique se les approprie, d’autres baissent en niveau ou en visibilité. Il est important que la liste de la Section 37 puisse refléter ces changements et fournir aux chercheurs et aux institutions une référence qui, si elle peut être contestée, s’efforce tout de même de refléter le point de vue de la communauté scientifique.

Faire vivre la liste est un exercice difficile et délicat auquel la section 37 s’attache en affinant sa méthode par l’expérience. Elle ne peut évidement pas prétendre à la perfection, tout simplement parce que les appréciations trop raccourcies que peut fournir une telle liste sur des revues scientifiques (présence ou non sur la liste et rang de classement), sont évidemment des appréciations très réductrices et qui ne sont pas exemptes de subjectivité. Tout comme nos prédécesseurs, nous en avons pleinement conscience et la mise-à-jour de la liste est une tâche que nous souhaitons accomplir le plus honnêtement possible et sans nier que nous ne sommes pas à l’abri d’erreurs d’appréciation.

Pour en savoir plus, merci de suivre ce lien: https://sites.google.com/site/section37cnrs/Home/revues37

8 juin 2016

2016-2018 Research Priorities #MSI

par Yassine EL BOUCHIKHI

Every two years, the Marketing Science Institute asks every MSI member company Trustee to provide input to help set priorities for the research that will guide our activities for the next few years. These priorities enable MSI to engage in its most critical mission: moving the needle on important marketing problems.

In the 2016-18 priorities, we have tried to retain the « voices » of our members by including their comments and questions. « On the horizon » describes the questions that emerged when we asked our Trustees to imagine critical issues emerging in the not-too-distant marketing future.

2016-2018 Research Priorities

  1. Quantitative models to understand causality, levers, and influence in a complex world

  2. Delivering integrated, real-time, relevant experiences in context

  3. Making sense of changing decision process(es)

  4. New data, new methods, and new skills—how to bring it all together?

  5. Innovation, design, and strategy in an age of disruption

(Download PDF)

http://www.msi.org/research/2016-2018-research-priorities//

Suivre

Recevez les nouvelles publications par mail.

Rejoignez 516 autres abonnés