lundi 16 janvier 2012

Animation des rencontres "Outils et instruments logiciels pour le TAL" au sein de l'équipe TALN

Depuis septembre 2010, j'anime au sein de l'équipe des rencontres "Outils et instruments  logiciels pour le TAL" connues aussi sous le nom de "réunions logiciels".

J'utilise ce post pour rappel du principe et les commentaires pour présenter les différentes interventions qui ont lieu.

La motivation de ces rencontres sont l'échange de connaissances
et l'entraide pour la prise en main d'un nouveau logiciel.

L'objectif pour le présentateur est simple : faire connaître un
logiciel et donner un aperçu de l'utilisation de celui-ci. La présentation prend la forme d'une
démonstration d'un cas d'utilisation. Suivant le logiciel, cela prend
15 à 30 minutes questions comprises.

Il faut prendre logiciel (au sens très large) [2] : cela peut concerner un
développement personnel, une bibliothèque, une application, un analyseur
particulier de données...

Je vous invite à vous proposer pour présenter un logiciel que vous pensez être
pertinent pour l'équipe (même si vous n'en connaissez que quelques fonctions),
ainsi qu'à émettre des demandes de démonstration. Je me propose de
coordonner pour trouver un intervenant dans le cas de demandes. On pourra
discuter plus tard sur les modalités d'ouverture de ces réunions à des
participants hors équipe.

Les rencontres sont au rythme d'une demi-heure tous les mois voire toutes les 6 semaines.
Elles sont planifiées sur l'agenda de l'équipe (aussi consultable en ligne sur [1]).

[1] Agenda des réunions de l'équipe TALN
[2] Instrument, outil, utilitaire et ressource
http://www.revue-texto.net/Corpus/Publications/Habert/Habert_Portrait.html#2.1.

7 commentaires:

  1. Le 6/10/2011, par Nicolas Hernandez

    La démonstration porte sur Apache OpenNLP, un outil que j'ai utilisé pour construire, évaluer et utiliser des modélisations pour le
    français pour les tâches de segmentation de phrases, de mots,
    étiquetage morpho-syntaxique et découpage en constituants.

    OpenNLP permet aussi de traiter d'autres tâches telles que la
    reconnaissance d'entités nommées, la catégorisation de document,
    l'analyse syntaxique, la résolution de la coréférence.

    Il repose sur le calcul du "maximum entropy model, the model with the
    maximum entropy of all the models that satisfy the constraints."

    Des modélisations pour l'anglais, l'allemand, le néerlandais,
    l'espagnol, le portugais et le suédois sont disponibles pour certaines
    de ces tâches.

    OpenNLP est développé en Java et il est possible de l'intégrer en
    natif au sein de UIMA.

    http://incubator.apache.org/opennlp

    RépondreSupprimer
  2. Le 01/12/2011
    Par Jérôme Rocheteau

    La démonstration porte sur la suite logicielle TermSuite
    développée dans le cadre du projet européen TTC (Terminology Extraction, Translation Tools and Comparable Corpora) pour l'extraction et l'alignement
    de terminologies multilingues.

    http://code.google.com/p/ttc-project/

    RépondreSupprimer
  3. Le 19/01/12
    Par Prajol Shrestha

    The next demo session will held on Thursday, 19th at 11h am (jeudi 19 prochain à 11h).

    We will welcome Prajol who will talk about the "R" free software environment for statistical computing and graphics and a few examples of its
    applications for tackling problems like some matrix computation, finding text similarities,
    different clustering methods etc.

    http://www.r-project.org/

    RépondreSupprimer
  4. Le 15/03/12,
    Par Florian Boudin

    Mise en place d'une approche état de l'art de classification illustrée à l'aide de Weka sur un track du défi DEFT'12 : un terme candidat est il un mot clef d'un document ?


    "Weka is a collection of machine learning algorithms for data mining
    tasks. The algorithms can either be applied directly to a dataset or
    called from your own Java code. Weka contains tools for data
    pre-processing, classification, regression, clustering, association
    rules, and visualization. It is also well-suited for developing new
    machine learning schemes."

    http://www.cs.waikato.ac.nz/ml/weka/

    RépondreSupprimer
  5. Le 5/6/12
    Par Chantal Enguehard

    Nooj est un outil de reconnaissance de motifs que l'on peut décrire à l'aide de CFG (Context Free Grammar).
    Un outil seulement pour les linguistes ?

    http://www.nooj4nlp.net/pages/nooj.html

    RépondreSupprimer
  6. 25/12/2012
    Par Mounira Harzallah (équipe COD)

    Illustration du processus de construction d'ontologies à partir de textes à l'aide de text2onto

    http://code.google.com/p/text2onto/

    RépondreSupprimer
  7. 31/01/2013
    Jérémie Bourdon nous parlera de "Protomata-Learner [1]: un outil d'apprentissage grammatical pour
    l'étude de familles de protéines"
    [1] http://tools.genouest.org/tools/protomata/help

    RépondreSupprimer