SlideShare a Scribd company logo
1 of 26
MY WEB
INTELLGENCE
Enjeux de
recherches
pour les
Humanités
digitales
UNE PLATEFORME OPEN SOURCE POUR
SERVIR DE SOCLE AUX OUTILS HD
Une plateforme Open
Source pour les unir
tous
Les humanités digitales sont un énorme
défi aux SHS : Introduire les TICs dans
l’extraction, l’archivage, l’analyse
automatique, la qualification des corpus,
la visualisation des données… Nous
voulons un projet pour fédérer les
énergies ouvertes et innovantes.
UNE PLATEFORME OPEN SOURCE POUR
SERVIR DE SOCLE AUX OUTILS HD
Une plateforme Open
Source pour les unir
tous
Les humanités digitales sont un énorme
défi aux SHS : Introduire les TICs dans
l’extraction, l’archivage, l’analyse
automatique, la qualification des corpus,
la visualisation des données… Nous
voulons un projet pour fédérer les
énergies ouvertes et innovantes.
CRÉER UNE DYNAMIQUE DE CLUSTERISATION
Trop de projets sont éparpillés. Des innovations à
haute valeur ajoutée sans capitalisation
d’expérience. Une plateforme pour les rassembler
tous ?
UNE PLATEFORME OPEN SOURCE POUR
SERVIR DE SOCLE AUX OUTILS HD
Une plateforme Open
Source pour les unir
tous
Les humanités digitales sont un énorme
défi aux SHS : Introduire les TICs dans
l’extraction, l’archivage, l’analyse
automatique, la qualification des corpus,
la visualisation des données… Nous
voulons un projet pour fédérer les
énergies ouvertes et innovantes.
CRÉER UNE DYNAMIQUE DE CLUSTERISATION
Trop de projets sont éparpillés. Des innovations à
haute valeur ajoutée sans capitalisation
d’expérience. Une plateforme pour les rassembler
tous ?
UNE APPROCHE PROJET 100% OPEN SOURCE
S’appuyant sur les plateformes collaboratives
(GitHub, Trello, etc.), le projet my web intelligence
rend public toutes les démarches de recherche dans
une logique fortement inclusive.
UNE PLATEFORME OPEN SOURCE POUR
SERVIR DE SOCLE AUX OUTILS HD
Une plateforme Open
Source pour les unir
tous
Les humanités digitales sont un énorme
défi aux SHS : Introduire les TICs dans
l’extraction, l’archivage, l’analyse
automatique, la qualification des corpus,
la visualisation des données… Nous
voulons un projet pour fédérer les
énergies ouvertes et innovantes.
CRÉER UNE DYNAMIQUE DE CLUSTERISATION
Trop de projets sont éparpillés. Des innovations à
haute valeur ajoutée sans capitalisation
d’expérience. Une plateforme pour les rassembler
tous ?
UNE APPROCHE PROJET 100% OPEN SOURCE
S’appuyant sur les plateformes collaboratives
(GitHub, Trello, etc.), le projet my web intelligence
rend public toutes les démarches de recherche dans
une logique fortement inclusive.
AU SERVICE DU BIEN COMMUN
My web intelligence se développe sur les principes
d’une maximisation du bien commun pour que les
outils d’intelligence collective profitent à tous
(facilités d’installation, documentation
transparente, etc.)
UNE PLATEFORME OPEN SOURCE POUR
SERVIR DE SOCLE AUX OUTILS HD
Une plateforme Open
Source pour les unir
tous
Les humanités digitales sont un énorme
défi aux SHS : Introduire les TICs dans
l’extraction, l’archivage, l’analyse
automatique, la qualification des corpus,
la visualisation des données… Nous
voulons un projet pour fédérer les
énergies ouvertes et innovantes.
CRÉER UNE DYNAMIQUE DE CLUSTERISATION
Trop de projets sont éparpillés. Des innovations à
haute valeur ajoutée sans capitalisation
d’expérience. Une plateforme pour les rassembler
tous ?
UNE APPROCHE PROJET 100% OPEN SOURCE
S’appuyant sur les plateformes collaboratives
(GitHub, Trello, etc.), le projet my web intelligence
rend public toutes les démarches de recherche dans
une logique fortement inclusive.
AU SERVICE DU BIEN COMMUN
My web intelligence se développe sur les principes
d’une maximisation du bien commun pour que les
outils d’intelligence collective profitent à tous
(facilités d’installation, documentation transparente,
etc.)
DANS UNE LOGIQUE COLLABORATIVE
Pour en finir avec la logique de compétition et de
rareté artificielle, my web intelligence fait le pari
d’une ouverture aux collaborations pour répondre
au défi que le numérique pose à l’intelligence
humaine.
Le content manager :
le défi de gestion des
archives hétérogènes
Permettre aux SHS d’étudier les
humanités digitales, c’est offrir avant tout
une plateforme projet capable d’extraire
et de conserver d’immense quantités
d’expressions issues de sources
hétérogènes.
MAITRISER LES AGENTS D’EXTRACTION
ET D’ARCHIVAGE (CRAWLERS) DANS UN
CONTEXTE BIG DATA
Le content manager :
le défi de gestion des
archives hétérogènes
Permettre aux SHS d’étudier les
humanités digitales, c’est offrir avant tout
une plateforme projet capable d’extraire
et de conserver d’immense quantités
d’expressions issues de sources
hétérogènes.
EXTRAIRE AUTOMATIQUEMENT LES CORPUS
DONT ON A BESOIN
Offrir un crawler accédant à des sources
hétérogènes avec suffisamment de modularités
pour répondre à l’ensemble des projets utilisateurs
MAITRISER LES AGENTS D’EXTRACTION
ET D’ARCHIVAGE (CRAWLERS) DANS UN
CONTEXTE BIG DATA
Le content manager :
le défi de gestion des
archives hétérogènes
Permettre aux SHS d’étudier les
humanités digitales, c’est offrir avant tout
une plateforme projet capable d’extraire
et de conserver d’immense quantités
d’expressions issues de sources
hétérogènes.
EXTRAIRE AUTOMATIQUEMENT LES CORPUS
DONT ON A BESOIN
Offrir un crawler accédant à des sources hétérogènes
avec suffisamment de modularités pour répondre à
l’ensemble des projets utilisateurs
DONNER UNE INTERFACE UTILISATEUR DE
GESTION DU CORPUS
Nettoyer, supprimer, classer, réorganiser selon ses
propres heuristiques de travail est un passage
obligé de tout projet HD.
MAITRISER LES AGENTS D’EXTRACTION
ET D’ARCHIVAGE (CRAWLERS) DANS UN
CONTEXTE BIG DATA
Le content manager :
le défi de gestion des
archives hétérogènes
Permettre aux SHS d’étudier les
humanités digitales, c’est offrir avant tout
une plateforme projet capable d’extraire
et de conserver d’immense quantités
d’expressions issues de sources
hétérogènes.
EXTRAIRE AUTOMATIQUEMENT LES CORPUS
DONT ON A BESOIN
Offrir un crawler accédant à des sources hétérogènes
avec suffisamment de modularités pour répondre à
l’ensemble des projets utilisateurs
DONNER UNE INTERFACE UTILISATEUR DE
GESTION DU CORPUS
Nettoyer, supprimer, classer, réorganiser selon ses
propres heuristiques de travail est un passage obligé
de tout projet HD.
UN OUTILS DE GESTION COLLABORATIVE DES
DONNÉES.
On ne remporte pas le défi des HD seul. Une
plateforme de cette ambition devra intégrer un
module de gestion d’équipe au service du
traitement des données.
MAITRISER LES AGENTS D’EXTRACTION
ET D’ARCHIVAGE (CRAWLERS) DANS UN
CONTEXTE BIG DATA
Le content manager :
le défi de gestion des
archives hétérogènes
Permettre aux SHS d’étudier les
humanités digitales, c’est offrir avant tout
une plateforme projet capable d’extraire
et de conserver d’immense quantités
d’expressions issues de sources
hétérogènes.
EXTRAIRE AUTOMATIQUEMENT LES CORPUS
DONT ON A BESOIN
Offrir un crawler accédant à des sources hétérogènes
avec suffisamment de modularités pour répondre à
l’ensemble des projets utilisateurs
DONNER UNE INTERFACE UTILISATEUR DE
GESTION DU CORPUS
Nettoyer, supprimer, classer, réorganiser selon ses
propres heuristiques de travail est un passage obligé
de tout projet HD.
UN OUTILS DE GESTION COLLABORATIVE DES
DONNÉES.
On ne remporte pas le défi des HD seul. Une
plateforme de cette ambition devra intégrer un
module de gestion d’équipe au service du traitement
des données.
RECRUTER LES AGENTS INTELLIGENTS
La démocratisation du machine learning et de
l’intelligence rtificielle permet aujourd’hui
d’embaucher des algorithmes de traitement pour
vous assister dans la gestion de masse de vos
données.
MAITRISER LES AGENTS D’EXTRACTION
ET D’ARCHIVAGE (CRAWLERS) DANS UN
CONTEXTE BIG DATA
L’analyse de contenu :
Le défi de
l’automatisation de la
qualification
Le traitement automatique du langage a
fait d‘énormes avancées. Pour autant
peu de solutions ouvertes offrent des
possibilités de qualifier les masses de
corpus. Notre projet vise à fédérer les
bases de la recherche en la matière
QUALIFIER AUTOMATIQUEMENT LES
DONNÉES DES SITUATIONS
D’EXPRESSION POUR CONTEXTUALISER
LE SENS.
L’analyse de contenu :
Le défi de
l’automatisation de la
qualification
Le traitement automatique du langage a
fait d‘énormes avancées. Pour autant
peu de solutions ouvertes offrent des
possibilités de qualifier les masses de
corpus. Notre projet vise à fédérer les
bases de la recherche en la matière
QUALIFIER LA SITUATION DE
COMMUNICATION
Chaque expression est à contextualiser dans une
situation de communication médiatique qu’il faut
pouvoir qualifier automatiquement.
QUALIFIER AUTOMATIQUEMENT LES
DONNÉES DES SITUATIONS
D’EXPRESSION POUR CONTEXTUALISER
LE SENS.
L’analyse de contenu :
Le défi de
l’automatisation de la
qualification
Le traitement automatique du langage a
fait d‘énormes avancées. Pour autant
peu de solutions ouvertes offrent des
possibilités de qualifier les masses de
corpus. Notre projet vise à fédérer les
bases de la recherche en la matière
QUALIFIER LA SITUATION DE
COMMUNICATION
Chaque expression est à contextualiser dans une
situation de communication médiatique qu’il faut
pouvoir qualifier automatiquement.
ANALYSER L’IMPACT DES ACTES DISCURSIFS
Enregistrer les indicateurs d’impact de toutes les
expressions pour pouvoir non seulement mesurer
leur influence mais aussi leur résonnance avec les
représentations des récepteurs du message
QUALIFIER AUTOMATIQUEMENT LES
DONNÉES DES SITUATIONS
D’EXPRESSION POUR CONTEXTUALISER
LE SENS.
L’analyse de contenu :
Le défi de
l’automatisation de la
qualification
Le traitement automatique du langage a
fait d‘énormes avancées. Pour autant
peu de solutions ouvertes offrent des
possibilités de qualifier les masses de
corpus. Notre projet vise à fédérer les
bases de la recherche en la matière
QUALIFIER LA SITUATION DE
COMMUNICATION
Chaque expression est à contextualiser dans une
situation de communication médiatique qu’il faut
pouvoir qualifier automatiquement.
ANALYSER L’IMPACT DES ACTES DISCURSIFS
Enregistrer les indicateurs d’impact de toutes les
expressions pour pouvoir non seulement mesurer
leur influence mais aussi leur résonnance avec les
représentations des récepteurs du message
TRAITER AUTOMATIQUEMENT DU CONTENU.
Lemmatisation des textes, objets principaux des
expressions, arbres argumentaires…L’analyse de
contenu permet un classement automatique du
corpus au service de la détection des
représentations collectives
QUALIFIER AUTOMATIQUEMENT LES
DONNÉES DES SITUATIONS
D’EXPRESSION POUR CONTEXTUALISER
LE SENS.
L’analyse de contenu :
Le défi de
l’automatisation de la
qualification
Le traitement automatique du langage a
fait d‘énormes avancées. Pour autant
peu de solutions ouvertes offrent des
possibilités de qualifier les masses de
corpus. Notre projet vise à fédérer les
bases de la recherche en la matière
QUALIFIER LA SITUATION DE
COMMUNICATION
Chaque expression est à contextualiser dans une
situation de communication médiatique qu’il faut
pouvoir qualifier automatiquement.
ANALYSER LES FORMES STYLISTIQUES POUR
IDENTIFIER LES EMPREINTES DU LOCUTEUR
Le style, le sentiment, le niveau de langue, le type
de vocabulaire…la détection des styles vient
enrichir les empreintes des locuteurs pour mieux les
identifier dans leurs intentions de communication
ANALYSER L’IMPACT DES ACTES DISCURSIFS
Enregistrer les indicateurs d’impact de toutes les
expressions pour pouvoir non seulement mesurer
leur influence mais aussi leur résonnance avec les
représentations des récepteurs du message
TRAITER AUTOMATIQUEMENT DU CONTENU.
Lemmatisation des textes, objets principaux des
expressions, arbres argumentaires…L’analyse de
contenu permet un classement automatique du
corpus au service de la détection des représentations
collectives
QUALIFIER AUTOMATIQUEMENT LES
DONNÉES DES SITUATIONS
D’EXPRESSION POUR CONTEXTUALISER
LE SENS.
L’algorithmie du
discours : A la source
des prises de
positions
La génération du discours répond à des
comportements plus ou moins
stéréotypés. L’algorithmie au service de
détection de patterns permet non
seulement de détecter et de mesurer ces
patterns mais aussi de les prédire…
DÉTECTER ET QUANTIFIER LES
PATTERNS A LA SOURCE DES DISCOURS
POUR EN COMPRENDRE L’ECONOMIE
GÉNÉRATIVE
L’algorithmie du
discours : A la source
des prises de
positions
La génération du discours répond à des
comportements plus ou moins
stéréotypés. L’algorithmie au service de
détection de patterns permet non
seulement de détecter et de mesurer ces
patterns mais aussi de les prédire…
ANALYSER LES POSITIONS D’ENONCIATION
Grace à la qualification des expressions selon le
modèle d’acte discursif, il est possible de quantifier
la production de discours grâce au traitement
statistique multi varié (type AFC, ACP, Arbres…)
DÉTECTER ET QUANTIFIER LES
PATTERNS A LA SOURCE DES DISCOURS
POUR EN COMPRENDRE L’ECONOMIE
GÉNÉRATIVE
L’algorithmie du
discours : A la source
des prises de
positions
La génération du discours répond à des
comportements plus ou moins
stéréotypés. L’algorithmie au service de
détection de patterns permet non
seulement de détecter et de mesurer ces
patterns mais aussi de les prédire…
ANALYSER LES POSITIONS D’ENONCIATION
Grace à la qualification des expressions selon le
modèle d’acte discursif, il est possible de quantifier la
production de discours grâce au traitement
statistique multi varié (type AFC, ACP, Arbres…)
PRÉVOIR LA PRODUCTION D’EXPRESSION
Les algorithmes prédictifs permettent non
seulement de compléter des données incomplètes
mais aussi de générer des hypothèses sur les prises
de positions futures en élaborant des scénarios
futurs
DÉTECTER ET QUANTIFIER LES
PATTERNS A LA SOURCE DES DISCOURS
POUR EN COMPRENDRE L’ECONOMIE
GÉNÉRATIVE
L’algorithmie du
discours : A la source
des prises de
positions
La génération du discours répond à des
comportements plus ou moins
stéréotypés. L’algorithmie au service de
détection de patterns permet non
seulement de détecter et de mesurer ces
patterns mais aussi de les prédire…
ANALYSER LES POSITIONS D’ENONCIATION
Grace à la qualification des expressions selon le
modèle d’acte discursif, il est possible de quantifier la
production de discours grâce au traitement
statistique multi varié (type AFC, ACP, Arbres…)
PRÉVOIR LA PRODUCTION D’EXPRESSION
Les algorithmes prédictifs permettent non seulement
de compléter des données incomplètes mais aussi de
générer des hypothèses sur les prises de positions
futures en élaborant des scénarios futurs
LE SOCIAL NETWORK ANALYSIS COMME
CONTEXTE SOCIAL DU DISCOURS
L’analyse structurale des réseaux appliquée au
discours dans l’analyse de leur co-citation permet
de retrouver la trame qui lie et socialise les
énonciateurs entre eux
DÉTECTER ET QUANTIFIER LES
PATTERNS A LA SOURCE DES DISCOURS
POUR EN COMPRENDRE L’ECONOMIE
GÉNÉRATIVE
L’algorithmie du
discours : A la source
des prises de
positions
La génération du discours répond à des
comportements plus ou moins
stéréotypés. L’algorithmie au service de
détection de patterns permet non
seulement de détecter et de mesurer ces
patterns mais aussi de les prédire…
ANALYSER LES POSITIONS D’ENONCIATION
Grace à la qualification des expressions selon le
modèle d’acte discursif, il est possible de quantifier la
production de discours grâce au traitement
statistique multi varié (type AFC, ACP, Arbres…)
LE SNA COMME ANALYSE DES STRUCTURES
COGNITIVES D’ÉNONCIATION
Le SNA offre une nouvelle perspective dans
l’analyse de la co-présence argumentative dans les
larges corpus en y introduisant ses propres notions
(centrality, betwenness, etc.)
PRÉVOIR LA PRODUCTION D’EXPRESSION
Les algorithmes prédictifs permettent non seulement
de compléter des données incomplètes mais aussi de
générer des hypothèses sur les prises de positions
futures en élaborant des scénarios futurs
LE SOCIAL NETWORK ANALYSIS COMME
CONTEXTE SOCIAL DU DISCOURS
L’analyse structurale des réseaux appliquée au
discours dans l’analyse de leur co-citation permet de
retrouver la trame qui lie et socialise les énonciateurs
entre eux
DÉTECTER ET QUANTIFIER LES
PATTERNS A LA SOURCE DES DISCOURS
POUR EN COMPRENDRE L’ECONOMIE
GÉNÉRATIVE
Design de données :
Le regard comme
source d’intelligence.
L’enjeu de la visualisation de données
consiste a offrir des schémas
d’interprétation de masses importantes
de données dans un contexte d’étude
spécifique. My web Intelligence
explorera la relation entre visualisation et
expression digitale.
VISUALISER ET INTERPRÉTER LES
EXPRESSIONS NUMÉRIQUES SUR LE
WEB
Design de données :
Le regard comme
source d’intelligence.
L’enjeu de la visualisation de données
consiste a offrir des schémas
d’interprétation de masses importantes
de données dans un contexte d’étude
spécifique. My web Intelligence
explorera la relation entre visualisation et
expression digitale.
NAVIGUER DANS LE CORPUS D’EXPRESSION
Visualiser et Naviguer les données relationnelles à
travers une expérience utilisateur (UX) et des
Interfaces utilisateurs adaptées.
VISUALISER ET INTERPRÉTER LES
EXPRESSIONS NUMÉRIQUES SUR LE
WEB
Design de données :
Le regard comme
source d’intelligence.
L’enjeu de la visualisation de données
consiste a offrir des schémas
d’interprétation de masses importantes
de données dans un contexte d’étude
spécifique. My web Intelligence
explorera la relation entre visualisation et
expression digitale.
CLASSER ET INDEXER LE CONTENU
Explorer la visualisation par nuages de mots clés,
index dynamique et autres représentations du texte
afin de faciliter l’analyse conceptuelle
VISUALISER ET INTERPRÉTER LES
EXPRESSIONS NUMÉRIQUES SUR LE
WEB
NAVIGUER DANS LE CORPUS D’EXPRESSION
Visualiser et Naviguer les données relationnelles à
travers une expérience utilisateur (UX) et des
Interfaces utilisateurs adaptées.
Design de données :
Le regard comme
source d’intelligence.
L’enjeu de la visualisation de données
consiste a offrir des schémas
d’interprétation de masses importantes
de données dans un contexte d’étude
spécifique. My web Intelligence
explorera la relation entre visualisation et
expression digitale.
NAVIGUER DANS LE CORPUS D’EXPRESSION
Visualiser et Naviguer les données relationnelles à
travers une expérience utilisateur (UX) et des
Interfaces utilisateurs adaptées.
CLASSER ET INDEXER LE CONTENU
Explorer la visualisation par nuages de mots clés,
index dynamique et autres représentations du texte
afin de faciliter l’analyse conceptuelle
CARTOGRAPHIER LES SOURCES
D’INFORMATION
La cartographie des locuteurs permet une
navigation contextuelle des supports média en
analysant leurs hyper-relations pertinents comme
contexte social d’énonciation.
VISUALISER ET INTERPRÉTER LES
EXPRESSIONS NUMÉRIQUES SUR LE
WEB
Design de données :
Le regard comme
source d’intelligence.
L’enjeu de la visualisation de données
consiste a offrir des schémas
d’interprétation de masses importantes
de données dans un contexte d’étude
spécifique. My web Intelligence
explorera la relation entre visualisation et
expression digitale.
NAVIGUER DANS LE CORPUS D’EXPRESSION
Visualiser et Naviguer les données relationnelles à
travers une expérience utilisateur (UX) et des
Interfaces utilisateurs adaptées.
CARTOGRAPHIER LA PENSER COLLECTIVE
L’utilisation du SNA dans les cartographies
contextuelles ouvre la perspective d’une
visualisation nouvelle des représentations
collectives et donc du contexte de savoir et
d’epistémé des énonciations étudiées.
CLASSER ET INDEXER LE CONTENU
Explorer la visualisation par nuages de mots clés,
index dynamique et autres représentations du texte
afin de faciliter l’analyse conceptuelle
CARTOGRAPHIER LES SOURCES
D’INFORMATION
La cartographie des locuteurs permet une navigation
contextuelle des supports média en analysant leurs
hyper-relations pertinents comme contexte social
d’énonciation.
VISUALISER ET INTERPRÉTER LES
EXPRESSIONS NUMÉRIQUES SUR LE
WEB

More Related Content

Similar to Enjeux de recherches pour les Humanités Digitales

La Bibliotheque visible, ubiquitaire et évolutive
La Bibliotheque visible, ubiquitaire et évolutiveLa Bibliotheque visible, ubiquitaire et évolutive
La Bibliotheque visible, ubiquitaire et évolutiveGeemik
 
Comment retrouver, nettoyer, organiser et gérer l’information dans votre entr...
Comment retrouver, nettoyer, organiser et gérer l’information dans votre entr...Comment retrouver, nettoyer, organiser et gérer l’information dans votre entr...
Comment retrouver, nettoyer, organiser et gérer l’information dans votre entr...Everteam
 
Nouvelles méthodes de développement web avec les technologies centrées doc...
Nouvelles méthodes de développement web avec les technologies centrées doc...Nouvelles méthodes de développement web avec les technologies centrées doc...
Nouvelles méthodes de développement web avec les technologies centrées doc...stsire
 
Le digital au service de l'innovation collaborative
Le digital au service de l'innovation collaborativeLe digital au service de l'innovation collaborative
Le digital au service de l'innovation collaborativeChloé Renault
 
Fabmob 2017
Fabmob 2017Fabmob 2017
Fabmob 2017FabMob
 
La Fondation Apache - keynote au Paris Open Source Summit 2017
La Fondation Apache - keynote au Paris Open Source Summit 2017La Fondation Apache - keynote au Paris Open Source Summit 2017
La Fondation Apache - keynote au Paris Open Source Summit 2017Bertrand Delacretaz
 
Datalift, une plateforme Linked Data, Retour d'expériences
Datalift, une plateforme Linked Data, Retour d'expériencesDatalift, une plateforme Linked Data, Retour d'expériences
Datalift, une plateforme Linked Data, Retour d'expériencesSemWebPro
 
XWiki Enterprise, un wiki dédié à l'usage professionnel
XWiki Enterprise, un wiki dédié à l'usage professionnelXWiki Enterprise, un wiki dédié à l'usage professionnel
XWiki Enterprise, un wiki dédié à l'usage professionnelXWiki
 
Applications Open Source pour Entreprise
Applications Open Source pour EntrepriseApplications Open Source pour Entreprise
Applications Open Source pour EntrepriseXWiki
 
Formation Culture numerique - Focus sur le Web
Formation Culture numerique -  Focus sur le WebFormation Culture numerique -  Focus sur le Web
Formation Culture numerique - Focus sur le WebABES
 
infrastructure numerique_focusweb_cnfpt2011
 infrastructure numerique_focusweb_cnfpt2011 infrastructure numerique_focusweb_cnfpt2011
infrastructure numerique_focusweb_cnfpt2011Fleury Christine
 
Structures hybrides : l'apport des infrastructures libres aux moteurs de rech...
Structures hybrides : l'apport des infrastructures libres aux moteurs de rech...Structures hybrides : l'apport des infrastructures libres aux moteurs de rech...
Structures hybrides : l'apport des infrastructures libres aux moteurs de rech...Aref Jdey
 
Enjeux de la recherche en SHS à l'ère des digital studies
Enjeux de la recherche en SHS à l'ère des digital studiesEnjeux de la recherche en SHS à l'ère des digital studies
Enjeux de la recherche en SHS à l'ère des digital studiesAmar LAKEL, PhD
 
Comment faire la veille sur internet outils et techniques
Comment faire la veille sur internet  outils et techniquesComment faire la veille sur internet  outils et techniques
Comment faire la veille sur internet outils et techniquesArnaud Dapa
 
2 infrastructure numerique_focusweb_cnfpt2011
2 infrastructure numerique_focusweb_cnfpt20112 infrastructure numerique_focusweb_cnfpt2011
2 infrastructure numerique_focusweb_cnfpt2011Fleury Christine
 
DBpedia ou le Linked Open Data et la question du public
DBpedia ou le Linked Open Data et la question du publicDBpedia ou le Linked Open Data et la question du public
DBpedia ou le Linked Open Data et la question du publicAlexandre Monnin
 
Monticolo sem-know
 Monticolo sem-know Monticolo sem-know
Monticolo sem-knowADIL LAOUFI
 
3 Open Datasoft - Lazard - solution for territories - Data Tuesday - 26 ma...
3   Open Datasoft - Lazard -  solution for territories - Data Tuesday - 26 ma...3   Open Datasoft - Lazard -  solution for territories - Data Tuesday - 26 ma...
3 Open Datasoft - Lazard - solution for territories - Data Tuesday - 26 ma...Data Tuesday
 

Similar to Enjeux de recherches pour les Humanités Digitales (20)

La Bibliotheque visible, ubiquitaire et évolutive
La Bibliotheque visible, ubiquitaire et évolutiveLa Bibliotheque visible, ubiquitaire et évolutive
La Bibliotheque visible, ubiquitaire et évolutive
 
Comment retrouver, nettoyer, organiser et gérer l’information dans votre entr...
Comment retrouver, nettoyer, organiser et gérer l’information dans votre entr...Comment retrouver, nettoyer, organiser et gérer l’information dans votre entr...
Comment retrouver, nettoyer, organiser et gérer l’information dans votre entr...
 
Nouvelles méthodes de développement web avec les technologies centrées doc...
Nouvelles méthodes de développement web avec les technologies centrées doc...Nouvelles méthodes de développement web avec les technologies centrées doc...
Nouvelles méthodes de développement web avec les technologies centrées doc...
 
Le digital au service de l'innovation collaborative
Le digital au service de l'innovation collaborativeLe digital au service de l'innovation collaborative
Le digital au service de l'innovation collaborative
 
Fabmob 2017
Fabmob 2017Fabmob 2017
Fabmob 2017
 
La Fondation Apache - keynote au Paris Open Source Summit 2017
La Fondation Apache - keynote au Paris Open Source Summit 2017La Fondation Apache - keynote au Paris Open Source Summit 2017
La Fondation Apache - keynote au Paris Open Source Summit 2017
 
Datalift, une plateforme Linked Data, Retour d'expériences
Datalift, une plateforme Linked Data, Retour d'expériencesDatalift, une plateforme Linked Data, Retour d'expériences
Datalift, une plateforme Linked Data, Retour d'expériences
 
XWiki Enterprise, un wiki dédié à l'usage professionnel
XWiki Enterprise, un wiki dédié à l'usage professionnelXWiki Enterprise, un wiki dédié à l'usage professionnel
XWiki Enterprise, un wiki dédié à l'usage professionnel
 
Applications Open Source pour Entreprise
Applications Open Source pour EntrepriseApplications Open Source pour Entreprise
Applications Open Source pour Entreprise
 
Formation Culture numerique - Focus sur le Web
Formation Culture numerique -  Focus sur le WebFormation Culture numerique -  Focus sur le Web
Formation Culture numerique - Focus sur le Web
 
infrastructure numerique_focusweb_cnfpt2011
 infrastructure numerique_focusweb_cnfpt2011 infrastructure numerique_focusweb_cnfpt2011
infrastructure numerique_focusweb_cnfpt2011
 
Structures hybrides : l'apport des infrastructures libres aux moteurs de rech...
Structures hybrides : l'apport des infrastructures libres aux moteurs de rech...Structures hybrides : l'apport des infrastructures libres aux moteurs de rech...
Structures hybrides : l'apport des infrastructures libres aux moteurs de rech...
 
Enjeux de la recherche en SHS à l'ère des digital studies
Enjeux de la recherche en SHS à l'ère des digital studiesEnjeux de la recherche en SHS à l'ère des digital studies
Enjeux de la recherche en SHS à l'ère des digital studies
 
Comment faire la veille sur internet outils et techniques
Comment faire la veille sur internet  outils et techniquesComment faire la veille sur internet  outils et techniques
Comment faire la veille sur internet outils et techniques
 
2 infrastructure numerique_focusweb_cnfpt2011
2 infrastructure numerique_focusweb_cnfpt20112 infrastructure numerique_focusweb_cnfpt2011
2 infrastructure numerique_focusweb_cnfpt2011
 
L'Atelier de cartographie
L'Atelier de cartographieL'Atelier de cartographie
L'Atelier de cartographie
 
DBpedia ou le Linked Open Data et la question du public
DBpedia ou le Linked Open Data et la question du publicDBpedia ou le Linked Open Data et la question du public
DBpedia ou le Linked Open Data et la question du public
 
Monticolo sem-know
 Monticolo sem-know Monticolo sem-know
Monticolo sem-know
 
Présentation cice telos
Présentation cice   telosPrésentation cice   telos
Présentation cice telos
 
3 Open Datasoft - Lazard - solution for territories - Data Tuesday - 26 ma...
3   Open Datasoft - Lazard -  solution for territories - Data Tuesday - 26 ma...3   Open Datasoft - Lazard -  solution for territories - Data Tuesday - 26 ma...
3 Open Datasoft - Lazard - solution for territories - Data Tuesday - 26 ma...
 

More from Amar LAKEL, PhD

Aux origines de la sociologie : du XIXème au début XX ème siècle
Aux origines de la sociologie : du XIXème au début XX ème siècleAux origines de la sociologie : du XIXème au début XX ème siècle
Aux origines de la sociologie : du XIXème au début XX ème siècleAmar LAKEL, PhD
 
Introduction au Data Marketing
Introduction au Data MarketingIntroduction au Data Marketing
Introduction au Data MarketingAmar LAKEL, PhD
 
Paradigme Structiro - Fonctionnaliste - Le paradigme linguisitique, Introduct...
Paradigme Structiro - Fonctionnaliste - Le paradigme linguisitique, Introduct...Paradigme Structiro - Fonctionnaliste - Le paradigme linguisitique, Introduct...
Paradigme Structiro - Fonctionnaliste - Le paradigme linguisitique, Introduct...Amar LAKEL, PhD
 
[Update 2022] Elaborer la stratégie de communication - tout ce qu'il faut savoir
[Update 2022] Elaborer la stratégie de communication - tout ce qu'il faut savoir[Update 2022] Elaborer la stratégie de communication - tout ce qu'il faut savoir
[Update 2022] Elaborer la stratégie de communication - tout ce qu'il faut savoirAmar LAKEL, PhD
 
Nouveaux régimes de vérité à l'heure des réseaux sociaux
Nouveaux régimes de vérité à l'heure des réseaux sociauxNouveaux régimes de vérité à l'heure des réseaux sociaux
Nouveaux régimes de vérité à l'heure des réseaux sociauxAmar LAKEL, PhD
 
Stratégie marketing digitale de A à Z
Stratégie marketing digitale de A à ZStratégie marketing digitale de A à Z
Stratégie marketing digitale de A à ZAmar LAKEL, PhD
 
L1 Cours Numérique & Société
 L1 Cours Numérique & Société L1 Cours Numérique & Société
L1 Cours Numérique & SociétéAmar LAKEL, PhD
 
L1 TD Numérique et Société
L1 TD Numérique et SociétéL1 TD Numérique et Société
L1 TD Numérique et SociétéAmar LAKEL, PhD
 
Data Analyse pas à pas avec R
Data Analyse pas à pas avec RData Analyse pas à pas avec R
Data Analyse pas à pas avec RAmar LAKEL, PhD
 
Absorber les web pour constituer un corpus internet : My Web intelligence.
Absorber les web pour constituer un corpus internet : My Web intelligence.Absorber les web pour constituer un corpus internet : My Web intelligence.
Absorber les web pour constituer un corpus internet : My Web intelligence.Amar LAKEL, PhD
 
Approches méthodologique d’analyse du web : en finir avec la division quali ...
Approches méthodologique d’analyse du web :  en finir avec la division quali ...Approches méthodologique d’analyse du web :  en finir avec la division quali ...
Approches méthodologique d’analyse du web : en finir avec la division quali ...Amar LAKEL, PhD
 
Juan Branco, une stratégie marketing d'un nouvel intellectuel numérique
Juan Branco, une stratégie marketing d'un nouvel intellectuel numériqueJuan Branco, une stratégie marketing d'un nouvel intellectuel numérique
Juan Branco, une stratégie marketing d'un nouvel intellectuel numériqueAmar LAKEL, PhD
 
Pour une documentologie digitale : La vie numérique de Robert Escarpit de 200...
Pour une documentologie digitale : La vie numérique de Robert Escarpit de 200...Pour une documentologie digitale : La vie numérique de Robert Escarpit de 200...
Pour une documentologie digitale : La vie numérique de Robert Escarpit de 200...Amar LAKEL, PhD
 
Amar Lakel - Patrimonialisation numérique et avenir digital du document.
Amar Lakel - Patrimonialisation numérique et avenir digital du document.Amar Lakel - Patrimonialisation numérique et avenir digital du document.
Amar Lakel - Patrimonialisation numérique et avenir digital du document.Amar LAKEL, PhD
 
Du néolithique à la smart city : généalogie de l'espace public au coeur des p...
Du néolithique à la smart city : généalogie de l'espace public au coeur des p...Du néolithique à la smart city : généalogie de l'espace public au coeur des p...
Du néolithique à la smart city : généalogie de l'espace public au coeur des p...Amar LAKEL, PhD
 
Data Analysis pas à pas avec R
Data Analysis pas à pas avec RData Analysis pas à pas avec R
Data Analysis pas à pas avec RAmar LAKEL, PhD
 
La méthode Foucault : De l’énoncé à l’archive, enjeux du pouvoir dans la comm...
La méthode Foucault : De l’énoncé à l’archive, enjeux du pouvoir dans la comm...La méthode Foucault : De l’énoncé à l’archive, enjeux du pouvoir dans la comm...
La méthode Foucault : De l’énoncé à l’archive, enjeux du pouvoir dans la comm...Amar LAKEL, PhD
 
Transition digitale et Espaces publics numérics
Transition digitale et Espaces publics numéricsTransition digitale et Espaces publics numérics
Transition digitale et Espaces publics numéricsAmar LAKEL, PhD
 
L'univers du Web Analytics
L'univers du Web AnalyticsL'univers du Web Analytics
L'univers du Web AnalyticsAmar LAKEL, PhD
 

More from Amar LAKEL, PhD (20)

Aux origines de la sociologie : du XIXème au début XX ème siècle
Aux origines de la sociologie : du XIXème au début XX ème siècleAux origines de la sociologie : du XIXème au début XX ème siècle
Aux origines de la sociologie : du XIXème au début XX ème siècle
 
Introduction au Data Marketing
Introduction au Data MarketingIntroduction au Data Marketing
Introduction au Data Marketing
 
Paradigme Structiro - Fonctionnaliste - Le paradigme linguisitique, Introduct...
Paradigme Structiro - Fonctionnaliste - Le paradigme linguisitique, Introduct...Paradigme Structiro - Fonctionnaliste - Le paradigme linguisitique, Introduct...
Paradigme Structiro - Fonctionnaliste - Le paradigme linguisitique, Introduct...
 
[Update 2022] Elaborer la stratégie de communication - tout ce qu'il faut savoir
[Update 2022] Elaborer la stratégie de communication - tout ce qu'il faut savoir[Update 2022] Elaborer la stratégie de communication - tout ce qu'il faut savoir
[Update 2022] Elaborer la stratégie de communication - tout ce qu'il faut savoir
 
Nouveaux régimes de vérité à l'heure des réseaux sociaux
Nouveaux régimes de vérité à l'heure des réseaux sociauxNouveaux régimes de vérité à l'heure des réseaux sociaux
Nouveaux régimes de vérité à l'heure des réseaux sociaux
 
Stratégie marketing digitale de A à Z
Stratégie marketing digitale de A à ZStratégie marketing digitale de A à Z
Stratégie marketing digitale de A à Z
 
L1 Cours Numérique & Société
 L1 Cours Numérique & Société L1 Cours Numérique & Société
L1 Cours Numérique & Société
 
L1 TD Numérique et Société
L1 TD Numérique et SociétéL1 TD Numérique et Société
L1 TD Numérique et Société
 
Data Analyse
Data AnalyseData Analyse
Data Analyse
 
Data Analyse pas à pas avec R
Data Analyse pas à pas avec RData Analyse pas à pas avec R
Data Analyse pas à pas avec R
 
Absorber les web pour constituer un corpus internet : My Web intelligence.
Absorber les web pour constituer un corpus internet : My Web intelligence.Absorber les web pour constituer un corpus internet : My Web intelligence.
Absorber les web pour constituer un corpus internet : My Web intelligence.
 
Approches méthodologique d’analyse du web : en finir avec la division quali ...
Approches méthodologique d’analyse du web :  en finir avec la division quali ...Approches méthodologique d’analyse du web :  en finir avec la division quali ...
Approches méthodologique d’analyse du web : en finir avec la division quali ...
 
Juan Branco, une stratégie marketing d'un nouvel intellectuel numérique
Juan Branco, une stratégie marketing d'un nouvel intellectuel numériqueJuan Branco, une stratégie marketing d'un nouvel intellectuel numérique
Juan Branco, une stratégie marketing d'un nouvel intellectuel numérique
 
Pour une documentologie digitale : La vie numérique de Robert Escarpit de 200...
Pour une documentologie digitale : La vie numérique de Robert Escarpit de 200...Pour une documentologie digitale : La vie numérique de Robert Escarpit de 200...
Pour une documentologie digitale : La vie numérique de Robert Escarpit de 200...
 
Amar Lakel - Patrimonialisation numérique et avenir digital du document.
Amar Lakel - Patrimonialisation numérique et avenir digital du document.Amar Lakel - Patrimonialisation numérique et avenir digital du document.
Amar Lakel - Patrimonialisation numérique et avenir digital du document.
 
Du néolithique à la smart city : généalogie de l'espace public au coeur des p...
Du néolithique à la smart city : généalogie de l'espace public au coeur des p...Du néolithique à la smart city : généalogie de l'espace public au coeur des p...
Du néolithique à la smart city : généalogie de l'espace public au coeur des p...
 
Data Analysis pas à pas avec R
Data Analysis pas à pas avec RData Analysis pas à pas avec R
Data Analysis pas à pas avec R
 
La méthode Foucault : De l’énoncé à l’archive, enjeux du pouvoir dans la comm...
La méthode Foucault : De l’énoncé à l’archive, enjeux du pouvoir dans la comm...La méthode Foucault : De l’énoncé à l’archive, enjeux du pouvoir dans la comm...
La méthode Foucault : De l’énoncé à l’archive, enjeux du pouvoir dans la comm...
 
Transition digitale et Espaces publics numérics
Transition digitale et Espaces publics numéricsTransition digitale et Espaces publics numérics
Transition digitale et Espaces publics numérics
 
L'univers du Web Analytics
L'univers du Web AnalyticsL'univers du Web Analytics
L'univers du Web Analytics
 

Recently uploaded

Le contrôle de la recherche d'emploi en 2023
Le contrôle de la recherche d'emploi en 2023Le contrôle de la recherche d'emploi en 2023
Le contrôle de la recherche d'emploi en 2023France Travail
 
To_understand_transformers_together presentation
To_understand_transformers_together presentationTo_understand_transformers_together presentation
To_understand_transformers_together presentationbahija babzine
 
Montant moyen du droit d'allocation chômage versé aux demandeurs d'emploi ind...
Montant moyen du droit d'allocation chômage versé aux demandeurs d'emploi ind...Montant moyen du droit d'allocation chômage versé aux demandeurs d'emploi ind...
Montant moyen du droit d'allocation chômage versé aux demandeurs d'emploi ind...France Travail
 
analyse husseindey AMIROUCHE Abdeslem.pptx
analyse husseindey AMIROUCHE Abdeslem.pptxanalyse husseindey AMIROUCHE Abdeslem.pptx
analyse husseindey AMIROUCHE Abdeslem.pptxHadJer61
 
Bidirectional Encoder Representations from Transformers
Bidirectional Encoder Representations from TransformersBidirectional Encoder Representations from Transformers
Bidirectional Encoder Representations from Transformersbahija babzine
 
ELABE BFMTV L'Opinion en direct - Les Français et les 100 jours de Gabriel Attal
ELABE BFMTV L'Opinion en direct - Les Français et les 100 jours de Gabriel AttalELABE BFMTV L'Opinion en direct - Les Français et les 100 jours de Gabriel Attal
ELABE BFMTV L'Opinion en direct - Les Français et les 100 jours de Gabriel Attalcontact Elabe
 

Recently uploaded (6)

Le contrôle de la recherche d'emploi en 2023
Le contrôle de la recherche d'emploi en 2023Le contrôle de la recherche d'emploi en 2023
Le contrôle de la recherche d'emploi en 2023
 
To_understand_transformers_together presentation
To_understand_transformers_together presentationTo_understand_transformers_together presentation
To_understand_transformers_together presentation
 
Montant moyen du droit d'allocation chômage versé aux demandeurs d'emploi ind...
Montant moyen du droit d'allocation chômage versé aux demandeurs d'emploi ind...Montant moyen du droit d'allocation chômage versé aux demandeurs d'emploi ind...
Montant moyen du droit d'allocation chômage versé aux demandeurs d'emploi ind...
 
analyse husseindey AMIROUCHE Abdeslem.pptx
analyse husseindey AMIROUCHE Abdeslem.pptxanalyse husseindey AMIROUCHE Abdeslem.pptx
analyse husseindey AMIROUCHE Abdeslem.pptx
 
Bidirectional Encoder Representations from Transformers
Bidirectional Encoder Representations from TransformersBidirectional Encoder Representations from Transformers
Bidirectional Encoder Representations from Transformers
 
ELABE BFMTV L'Opinion en direct - Les Français et les 100 jours de Gabriel Attal
ELABE BFMTV L'Opinion en direct - Les Français et les 100 jours de Gabriel AttalELABE BFMTV L'Opinion en direct - Les Français et les 100 jours de Gabriel Attal
ELABE BFMTV L'Opinion en direct - Les Français et les 100 jours de Gabriel Attal
 

Enjeux de recherches pour les Humanités Digitales

  • 2. UNE PLATEFORME OPEN SOURCE POUR SERVIR DE SOCLE AUX OUTILS HD Une plateforme Open Source pour les unir tous Les humanités digitales sont un énorme défi aux SHS : Introduire les TICs dans l’extraction, l’archivage, l’analyse automatique, la qualification des corpus, la visualisation des données… Nous voulons un projet pour fédérer les énergies ouvertes et innovantes.
  • 3. UNE PLATEFORME OPEN SOURCE POUR SERVIR DE SOCLE AUX OUTILS HD Une plateforme Open Source pour les unir tous Les humanités digitales sont un énorme défi aux SHS : Introduire les TICs dans l’extraction, l’archivage, l’analyse automatique, la qualification des corpus, la visualisation des données… Nous voulons un projet pour fédérer les énergies ouvertes et innovantes. CRÉER UNE DYNAMIQUE DE CLUSTERISATION Trop de projets sont éparpillés. Des innovations à haute valeur ajoutée sans capitalisation d’expérience. Une plateforme pour les rassembler tous ?
  • 4. UNE PLATEFORME OPEN SOURCE POUR SERVIR DE SOCLE AUX OUTILS HD Une plateforme Open Source pour les unir tous Les humanités digitales sont un énorme défi aux SHS : Introduire les TICs dans l’extraction, l’archivage, l’analyse automatique, la qualification des corpus, la visualisation des données… Nous voulons un projet pour fédérer les énergies ouvertes et innovantes. CRÉER UNE DYNAMIQUE DE CLUSTERISATION Trop de projets sont éparpillés. Des innovations à haute valeur ajoutée sans capitalisation d’expérience. Une plateforme pour les rassembler tous ? UNE APPROCHE PROJET 100% OPEN SOURCE S’appuyant sur les plateformes collaboratives (GitHub, Trello, etc.), le projet my web intelligence rend public toutes les démarches de recherche dans une logique fortement inclusive.
  • 5. UNE PLATEFORME OPEN SOURCE POUR SERVIR DE SOCLE AUX OUTILS HD Une plateforme Open Source pour les unir tous Les humanités digitales sont un énorme défi aux SHS : Introduire les TICs dans l’extraction, l’archivage, l’analyse automatique, la qualification des corpus, la visualisation des données… Nous voulons un projet pour fédérer les énergies ouvertes et innovantes. CRÉER UNE DYNAMIQUE DE CLUSTERISATION Trop de projets sont éparpillés. Des innovations à haute valeur ajoutée sans capitalisation d’expérience. Une plateforme pour les rassembler tous ? UNE APPROCHE PROJET 100% OPEN SOURCE S’appuyant sur les plateformes collaboratives (GitHub, Trello, etc.), le projet my web intelligence rend public toutes les démarches de recherche dans une logique fortement inclusive. AU SERVICE DU BIEN COMMUN My web intelligence se développe sur les principes d’une maximisation du bien commun pour que les outils d’intelligence collective profitent à tous (facilités d’installation, documentation transparente, etc.)
  • 6. UNE PLATEFORME OPEN SOURCE POUR SERVIR DE SOCLE AUX OUTILS HD Une plateforme Open Source pour les unir tous Les humanités digitales sont un énorme défi aux SHS : Introduire les TICs dans l’extraction, l’archivage, l’analyse automatique, la qualification des corpus, la visualisation des données… Nous voulons un projet pour fédérer les énergies ouvertes et innovantes. CRÉER UNE DYNAMIQUE DE CLUSTERISATION Trop de projets sont éparpillés. Des innovations à haute valeur ajoutée sans capitalisation d’expérience. Une plateforme pour les rassembler tous ? UNE APPROCHE PROJET 100% OPEN SOURCE S’appuyant sur les plateformes collaboratives (GitHub, Trello, etc.), le projet my web intelligence rend public toutes les démarches de recherche dans une logique fortement inclusive. AU SERVICE DU BIEN COMMUN My web intelligence se développe sur les principes d’une maximisation du bien commun pour que les outils d’intelligence collective profitent à tous (facilités d’installation, documentation transparente, etc.) DANS UNE LOGIQUE COLLABORATIVE Pour en finir avec la logique de compétition et de rareté artificielle, my web intelligence fait le pari d’une ouverture aux collaborations pour répondre au défi que le numérique pose à l’intelligence humaine.
  • 7. Le content manager : le défi de gestion des archives hétérogènes Permettre aux SHS d’étudier les humanités digitales, c’est offrir avant tout une plateforme projet capable d’extraire et de conserver d’immense quantités d’expressions issues de sources hétérogènes. MAITRISER LES AGENTS D’EXTRACTION ET D’ARCHIVAGE (CRAWLERS) DANS UN CONTEXTE BIG DATA
  • 8. Le content manager : le défi de gestion des archives hétérogènes Permettre aux SHS d’étudier les humanités digitales, c’est offrir avant tout une plateforme projet capable d’extraire et de conserver d’immense quantités d’expressions issues de sources hétérogènes. EXTRAIRE AUTOMATIQUEMENT LES CORPUS DONT ON A BESOIN Offrir un crawler accédant à des sources hétérogènes avec suffisamment de modularités pour répondre à l’ensemble des projets utilisateurs MAITRISER LES AGENTS D’EXTRACTION ET D’ARCHIVAGE (CRAWLERS) DANS UN CONTEXTE BIG DATA
  • 9. Le content manager : le défi de gestion des archives hétérogènes Permettre aux SHS d’étudier les humanités digitales, c’est offrir avant tout une plateforme projet capable d’extraire et de conserver d’immense quantités d’expressions issues de sources hétérogènes. EXTRAIRE AUTOMATIQUEMENT LES CORPUS DONT ON A BESOIN Offrir un crawler accédant à des sources hétérogènes avec suffisamment de modularités pour répondre à l’ensemble des projets utilisateurs DONNER UNE INTERFACE UTILISATEUR DE GESTION DU CORPUS Nettoyer, supprimer, classer, réorganiser selon ses propres heuristiques de travail est un passage obligé de tout projet HD. MAITRISER LES AGENTS D’EXTRACTION ET D’ARCHIVAGE (CRAWLERS) DANS UN CONTEXTE BIG DATA
  • 10. Le content manager : le défi de gestion des archives hétérogènes Permettre aux SHS d’étudier les humanités digitales, c’est offrir avant tout une plateforme projet capable d’extraire et de conserver d’immense quantités d’expressions issues de sources hétérogènes. EXTRAIRE AUTOMATIQUEMENT LES CORPUS DONT ON A BESOIN Offrir un crawler accédant à des sources hétérogènes avec suffisamment de modularités pour répondre à l’ensemble des projets utilisateurs DONNER UNE INTERFACE UTILISATEUR DE GESTION DU CORPUS Nettoyer, supprimer, classer, réorganiser selon ses propres heuristiques de travail est un passage obligé de tout projet HD. UN OUTILS DE GESTION COLLABORATIVE DES DONNÉES. On ne remporte pas le défi des HD seul. Une plateforme de cette ambition devra intégrer un module de gestion d’équipe au service du traitement des données. MAITRISER LES AGENTS D’EXTRACTION ET D’ARCHIVAGE (CRAWLERS) DANS UN CONTEXTE BIG DATA
  • 11. Le content manager : le défi de gestion des archives hétérogènes Permettre aux SHS d’étudier les humanités digitales, c’est offrir avant tout une plateforme projet capable d’extraire et de conserver d’immense quantités d’expressions issues de sources hétérogènes. EXTRAIRE AUTOMATIQUEMENT LES CORPUS DONT ON A BESOIN Offrir un crawler accédant à des sources hétérogènes avec suffisamment de modularités pour répondre à l’ensemble des projets utilisateurs DONNER UNE INTERFACE UTILISATEUR DE GESTION DU CORPUS Nettoyer, supprimer, classer, réorganiser selon ses propres heuristiques de travail est un passage obligé de tout projet HD. UN OUTILS DE GESTION COLLABORATIVE DES DONNÉES. On ne remporte pas le défi des HD seul. Une plateforme de cette ambition devra intégrer un module de gestion d’équipe au service du traitement des données. RECRUTER LES AGENTS INTELLIGENTS La démocratisation du machine learning et de l’intelligence rtificielle permet aujourd’hui d’embaucher des algorithmes de traitement pour vous assister dans la gestion de masse de vos données. MAITRISER LES AGENTS D’EXTRACTION ET D’ARCHIVAGE (CRAWLERS) DANS UN CONTEXTE BIG DATA
  • 12. L’analyse de contenu : Le défi de l’automatisation de la qualification Le traitement automatique du langage a fait d‘énormes avancées. Pour autant peu de solutions ouvertes offrent des possibilités de qualifier les masses de corpus. Notre projet vise à fédérer les bases de la recherche en la matière QUALIFIER AUTOMATIQUEMENT LES DONNÉES DES SITUATIONS D’EXPRESSION POUR CONTEXTUALISER LE SENS.
  • 13. L’analyse de contenu : Le défi de l’automatisation de la qualification Le traitement automatique du langage a fait d‘énormes avancées. Pour autant peu de solutions ouvertes offrent des possibilités de qualifier les masses de corpus. Notre projet vise à fédérer les bases de la recherche en la matière QUALIFIER LA SITUATION DE COMMUNICATION Chaque expression est à contextualiser dans une situation de communication médiatique qu’il faut pouvoir qualifier automatiquement. QUALIFIER AUTOMATIQUEMENT LES DONNÉES DES SITUATIONS D’EXPRESSION POUR CONTEXTUALISER LE SENS.
  • 14. L’analyse de contenu : Le défi de l’automatisation de la qualification Le traitement automatique du langage a fait d‘énormes avancées. Pour autant peu de solutions ouvertes offrent des possibilités de qualifier les masses de corpus. Notre projet vise à fédérer les bases de la recherche en la matière QUALIFIER LA SITUATION DE COMMUNICATION Chaque expression est à contextualiser dans une situation de communication médiatique qu’il faut pouvoir qualifier automatiquement. ANALYSER L’IMPACT DES ACTES DISCURSIFS Enregistrer les indicateurs d’impact de toutes les expressions pour pouvoir non seulement mesurer leur influence mais aussi leur résonnance avec les représentations des récepteurs du message QUALIFIER AUTOMATIQUEMENT LES DONNÉES DES SITUATIONS D’EXPRESSION POUR CONTEXTUALISER LE SENS.
  • 15. L’analyse de contenu : Le défi de l’automatisation de la qualification Le traitement automatique du langage a fait d‘énormes avancées. Pour autant peu de solutions ouvertes offrent des possibilités de qualifier les masses de corpus. Notre projet vise à fédérer les bases de la recherche en la matière QUALIFIER LA SITUATION DE COMMUNICATION Chaque expression est à contextualiser dans une situation de communication médiatique qu’il faut pouvoir qualifier automatiquement. ANALYSER L’IMPACT DES ACTES DISCURSIFS Enregistrer les indicateurs d’impact de toutes les expressions pour pouvoir non seulement mesurer leur influence mais aussi leur résonnance avec les représentations des récepteurs du message TRAITER AUTOMATIQUEMENT DU CONTENU. Lemmatisation des textes, objets principaux des expressions, arbres argumentaires…L’analyse de contenu permet un classement automatique du corpus au service de la détection des représentations collectives QUALIFIER AUTOMATIQUEMENT LES DONNÉES DES SITUATIONS D’EXPRESSION POUR CONTEXTUALISER LE SENS.
  • 16. L’analyse de contenu : Le défi de l’automatisation de la qualification Le traitement automatique du langage a fait d‘énormes avancées. Pour autant peu de solutions ouvertes offrent des possibilités de qualifier les masses de corpus. Notre projet vise à fédérer les bases de la recherche en la matière QUALIFIER LA SITUATION DE COMMUNICATION Chaque expression est à contextualiser dans une situation de communication médiatique qu’il faut pouvoir qualifier automatiquement. ANALYSER LES FORMES STYLISTIQUES POUR IDENTIFIER LES EMPREINTES DU LOCUTEUR Le style, le sentiment, le niveau de langue, le type de vocabulaire…la détection des styles vient enrichir les empreintes des locuteurs pour mieux les identifier dans leurs intentions de communication ANALYSER L’IMPACT DES ACTES DISCURSIFS Enregistrer les indicateurs d’impact de toutes les expressions pour pouvoir non seulement mesurer leur influence mais aussi leur résonnance avec les représentations des récepteurs du message TRAITER AUTOMATIQUEMENT DU CONTENU. Lemmatisation des textes, objets principaux des expressions, arbres argumentaires…L’analyse de contenu permet un classement automatique du corpus au service de la détection des représentations collectives QUALIFIER AUTOMATIQUEMENT LES DONNÉES DES SITUATIONS D’EXPRESSION POUR CONTEXTUALISER LE SENS.
  • 17. L’algorithmie du discours : A la source des prises de positions La génération du discours répond à des comportements plus ou moins stéréotypés. L’algorithmie au service de détection de patterns permet non seulement de détecter et de mesurer ces patterns mais aussi de les prédire… DÉTECTER ET QUANTIFIER LES PATTERNS A LA SOURCE DES DISCOURS POUR EN COMPRENDRE L’ECONOMIE GÉNÉRATIVE
  • 18. L’algorithmie du discours : A la source des prises de positions La génération du discours répond à des comportements plus ou moins stéréotypés. L’algorithmie au service de détection de patterns permet non seulement de détecter et de mesurer ces patterns mais aussi de les prédire… ANALYSER LES POSITIONS D’ENONCIATION Grace à la qualification des expressions selon le modèle d’acte discursif, il est possible de quantifier la production de discours grâce au traitement statistique multi varié (type AFC, ACP, Arbres…) DÉTECTER ET QUANTIFIER LES PATTERNS A LA SOURCE DES DISCOURS POUR EN COMPRENDRE L’ECONOMIE GÉNÉRATIVE
  • 19. L’algorithmie du discours : A la source des prises de positions La génération du discours répond à des comportements plus ou moins stéréotypés. L’algorithmie au service de détection de patterns permet non seulement de détecter et de mesurer ces patterns mais aussi de les prédire… ANALYSER LES POSITIONS D’ENONCIATION Grace à la qualification des expressions selon le modèle d’acte discursif, il est possible de quantifier la production de discours grâce au traitement statistique multi varié (type AFC, ACP, Arbres…) PRÉVOIR LA PRODUCTION D’EXPRESSION Les algorithmes prédictifs permettent non seulement de compléter des données incomplètes mais aussi de générer des hypothèses sur les prises de positions futures en élaborant des scénarios futurs DÉTECTER ET QUANTIFIER LES PATTERNS A LA SOURCE DES DISCOURS POUR EN COMPRENDRE L’ECONOMIE GÉNÉRATIVE
  • 20. L’algorithmie du discours : A la source des prises de positions La génération du discours répond à des comportements plus ou moins stéréotypés. L’algorithmie au service de détection de patterns permet non seulement de détecter et de mesurer ces patterns mais aussi de les prédire… ANALYSER LES POSITIONS D’ENONCIATION Grace à la qualification des expressions selon le modèle d’acte discursif, il est possible de quantifier la production de discours grâce au traitement statistique multi varié (type AFC, ACP, Arbres…) PRÉVOIR LA PRODUCTION D’EXPRESSION Les algorithmes prédictifs permettent non seulement de compléter des données incomplètes mais aussi de générer des hypothèses sur les prises de positions futures en élaborant des scénarios futurs LE SOCIAL NETWORK ANALYSIS COMME CONTEXTE SOCIAL DU DISCOURS L’analyse structurale des réseaux appliquée au discours dans l’analyse de leur co-citation permet de retrouver la trame qui lie et socialise les énonciateurs entre eux DÉTECTER ET QUANTIFIER LES PATTERNS A LA SOURCE DES DISCOURS POUR EN COMPRENDRE L’ECONOMIE GÉNÉRATIVE
  • 21. L’algorithmie du discours : A la source des prises de positions La génération du discours répond à des comportements plus ou moins stéréotypés. L’algorithmie au service de détection de patterns permet non seulement de détecter et de mesurer ces patterns mais aussi de les prédire… ANALYSER LES POSITIONS D’ENONCIATION Grace à la qualification des expressions selon le modèle d’acte discursif, il est possible de quantifier la production de discours grâce au traitement statistique multi varié (type AFC, ACP, Arbres…) LE SNA COMME ANALYSE DES STRUCTURES COGNITIVES D’ÉNONCIATION Le SNA offre une nouvelle perspective dans l’analyse de la co-présence argumentative dans les larges corpus en y introduisant ses propres notions (centrality, betwenness, etc.) PRÉVOIR LA PRODUCTION D’EXPRESSION Les algorithmes prédictifs permettent non seulement de compléter des données incomplètes mais aussi de générer des hypothèses sur les prises de positions futures en élaborant des scénarios futurs LE SOCIAL NETWORK ANALYSIS COMME CONTEXTE SOCIAL DU DISCOURS L’analyse structurale des réseaux appliquée au discours dans l’analyse de leur co-citation permet de retrouver la trame qui lie et socialise les énonciateurs entre eux DÉTECTER ET QUANTIFIER LES PATTERNS A LA SOURCE DES DISCOURS POUR EN COMPRENDRE L’ECONOMIE GÉNÉRATIVE
  • 22. Design de données : Le regard comme source d’intelligence. L’enjeu de la visualisation de données consiste a offrir des schémas d’interprétation de masses importantes de données dans un contexte d’étude spécifique. My web Intelligence explorera la relation entre visualisation et expression digitale. VISUALISER ET INTERPRÉTER LES EXPRESSIONS NUMÉRIQUES SUR LE WEB
  • 23. Design de données : Le regard comme source d’intelligence. L’enjeu de la visualisation de données consiste a offrir des schémas d’interprétation de masses importantes de données dans un contexte d’étude spécifique. My web Intelligence explorera la relation entre visualisation et expression digitale. NAVIGUER DANS LE CORPUS D’EXPRESSION Visualiser et Naviguer les données relationnelles à travers une expérience utilisateur (UX) et des Interfaces utilisateurs adaptées. VISUALISER ET INTERPRÉTER LES EXPRESSIONS NUMÉRIQUES SUR LE WEB
  • 24. Design de données : Le regard comme source d’intelligence. L’enjeu de la visualisation de données consiste a offrir des schémas d’interprétation de masses importantes de données dans un contexte d’étude spécifique. My web Intelligence explorera la relation entre visualisation et expression digitale. CLASSER ET INDEXER LE CONTENU Explorer la visualisation par nuages de mots clés, index dynamique et autres représentations du texte afin de faciliter l’analyse conceptuelle VISUALISER ET INTERPRÉTER LES EXPRESSIONS NUMÉRIQUES SUR LE WEB NAVIGUER DANS LE CORPUS D’EXPRESSION Visualiser et Naviguer les données relationnelles à travers une expérience utilisateur (UX) et des Interfaces utilisateurs adaptées.
  • 25. Design de données : Le regard comme source d’intelligence. L’enjeu de la visualisation de données consiste a offrir des schémas d’interprétation de masses importantes de données dans un contexte d’étude spécifique. My web Intelligence explorera la relation entre visualisation et expression digitale. NAVIGUER DANS LE CORPUS D’EXPRESSION Visualiser et Naviguer les données relationnelles à travers une expérience utilisateur (UX) et des Interfaces utilisateurs adaptées. CLASSER ET INDEXER LE CONTENU Explorer la visualisation par nuages de mots clés, index dynamique et autres représentations du texte afin de faciliter l’analyse conceptuelle CARTOGRAPHIER LES SOURCES D’INFORMATION La cartographie des locuteurs permet une navigation contextuelle des supports média en analysant leurs hyper-relations pertinents comme contexte social d’énonciation. VISUALISER ET INTERPRÉTER LES EXPRESSIONS NUMÉRIQUES SUR LE WEB
  • 26. Design de données : Le regard comme source d’intelligence. L’enjeu de la visualisation de données consiste a offrir des schémas d’interprétation de masses importantes de données dans un contexte d’étude spécifique. My web Intelligence explorera la relation entre visualisation et expression digitale. NAVIGUER DANS LE CORPUS D’EXPRESSION Visualiser et Naviguer les données relationnelles à travers une expérience utilisateur (UX) et des Interfaces utilisateurs adaptées. CARTOGRAPHIER LA PENSER COLLECTIVE L’utilisation du SNA dans les cartographies contextuelles ouvre la perspective d’une visualisation nouvelle des représentations collectives et donc du contexte de savoir et d’epistémé des énonciations étudiées. CLASSER ET INDEXER LE CONTENU Explorer la visualisation par nuages de mots clés, index dynamique et autres représentations du texte afin de faciliter l’analyse conceptuelle CARTOGRAPHIER LES SOURCES D’INFORMATION La cartographie des locuteurs permet une navigation contextuelle des supports média en analysant leurs hyper-relations pertinents comme contexte social d’énonciation. VISUALISER ET INTERPRÉTER LES EXPRESSIONS NUMÉRIQUES SUR LE WEB