Consulter les offres d’emploi

Biostatisticien
Publiée le 20/11/2018 11:46.
CDI, Département de la recherche clinique et de l'innovation - CHU de Nice.
Entreprise/Organisme :CHU de Nice
Niveau d'études :Master
Date de début :dès que possible
Durée du contrat :CDD initialement puis CDI, poste pérenne
Rémunération :selon expérience sur grille ingénieur hospitalier
Secteur d'activité :Biostatistiques domaine médical
Description :Le poste a vocation a assurer une assistance méthodologique aux investigateurs du CHU de Nice (médecins, chercheurs, paramédicaux), dans toutes les spécialités, souhaitant préparer un protocole de recherche et les accompagner jusqu'à la publication.
En savoir plus :https://www.chu-nice.fr/
Contact :fontas.e@chu-nice.fr
Biostatisticien senior
Publiée le 20/11/2018 11:46.
CDI, Département de la recherche clinique et de l'innovation - CHU de Nice.
Entreprise/Organisme :CHU de Nice
Niveau d'études :Doctorat
Date de début :dès que possible
Durée du contrat :CDD initialement puis CDI, poste pérenne
Rémunération :selon expérience sur grille ingénieur hospitalier
Secteur d'activité :Biostatistiques domaine médical
Description :Assistance méthodologique aux projets de recherche du CHU, toutes spécialités (cf fiche jointe)
En savoir plus :https://www.chu-nice.fr/
Contact :fontas.e@chu-nice.fr
Stage de Master en biostatistiques - CIRAD
Publiée le 19/11/2018 13:09.
Stage, Montpellier.
Entreprise/Organisme :CIRAD
Niveau d'études :Master
Sujet :Modélisation bayésienne flexible pour l’analyse jointe de données longitudinales et de survie : application à l’étude de la propagation d’une maladie dans le contexte du palmier à huile
Date de début :Printemps 2019
Durée du contrat :4 à 6 mois
Rémunération :taux légal
Description :Modélisation bayésienne flexible pour l’analyse jointe de données longitudinales et de survie : application à l’étude de la propagation d’une maladie dans le contexte du palmier à huile
En savoir plus :https://www.cirad.fr/
SujetSurvie.pdf
Contact :marie.denis@cirad.fr
H/F - Statisticien(ne)/informaticien(ne) avec un goût pour la biologie et l’agronomie
Publiée le 16/11/2018 16:52.
Référence : Offre de stage - 6 mois.
Stage, Ile de la Réunion et Montpellier.
Entreprise/Organisme :Cirad
Niveau d'études :Master
Sujet :Modélisation du système manguier-cécidomyie des fleurs et évaluation de modes de gestion du ravageur et de ses dégâts par expérimentations virtuelles.
Date de début :mars 2019
Durée du contrat :6 mois
Rémunération :oui
Secteur d'activité :recherche
Description :L’objectif du stage est i) de développer un modèle manguier-cécidomyie des fleurs, ii) de mettre en œuvre ce modèle pour tester in silico des modes de conduite des vergers combinant différents leviers de gestion des cécidomyies des fleurs et de leurs dégâts, et iii) de considérer son couplage au modèle V-Mango (i.e., modèle structure-fonction de plante qui décrit le développement architectural et la phénologie de l’arbre). Le travail de l’étudiant(e) consistera en : -La révision du modèle manguier-cécidomyie des fleurs actuel et le développement de nouveaux modules pour le compléter -L’analyse du comportement de ce modèle, incluant une analyse de sensibilité -La réalisation d’expérimentations virtuelles pour évaluer in silico des modes de conduite des vergers combinant différents leviers de gestion des cécidomyies des fleurs et de leurs dégâts -L’analyse des conditions de couplage du modèle manguier-cécidomyies des fleurs au modèle V-Mango, voire le couplage effectif de ces modèles Profil recherché : -Statisticien(ne)/informaticien(ne) avec un goût pour la biologie et l’agronomie, ou agronome avec des connaissances solides en statistiques et en informatique -Aptitude à travailler en équipe pluridisciplinaire (agronomes, entomologistes, informaticiens) -Bonnes notions de modélisation et de programmation, et connaissance du langage Python et du logiciel R.
En savoir plus :https://www.cirad.fr/
offre de stage 2019_modèle manguier-cécidomyies_vf.pdf
Contact :isabelle.grechi@cirad.fr
Junior Sports Quantitative Analyst
Publiée le 16/11/2018 16:00.
Référence : SMARTODDS JUNIOR QUANT.
CDI, LONDON.
Entreprise/Organisme :SMARTODDS
Niveau d'études :DUT/Licence ou équivalent
Rémunération :20-50k£
Secteur d'activité :Sports betting
Description :As a quantitative analyst at Smartodds, you will be part of an exciting environment, predicting outcomes of professional sports on behalf of our clients. We focus on football, American football, baseball, basketball, cricket, golf, ice hockey, and tennis. The junior quant analyst will be part of the quant team and assist the senior quants in their work. This will consist in writing basic statistical analyses, developing Shiny applications and maintain/improve the existing code library. We expect the candidate to learn new concepts very fast and be passionate about the job, which mixes sport, betting, maths and computing together. If you think that you tick the following boxes then please apply. This is a fantastic opportunity to work in a relaxed environment on a topic you love. Education Essential: BSc in Maths/Stats/Computer science. Desirable: MSc or equivalent in one of the above Skills and Experience Essential Proficient in one of R/Python Good statistics knowledge. Fast learner. Fluent in English. A passion for sports, betting, stats or computing. Desirable: Knowledge of R Shiny framework/ html development. Knowledge of SQL. Knowledge of Linux operating system. Benefits Flexible working hours Competitive salary and discretionary bonus 30 days annual leave plus public holidays Generous pension scheme and education budget Casual dress code Freshly made lunch and dinner three days a week
En savoir plus :https://www.smartodds.co.uk/Careers/Vacancies
Contact :benoit.jottreau@smartodds.co.uk
Statisticien en CDI
Publiée le 16/11/2018 16:00.
Référence : STAT_eXYSTAT_2019.
CDI, Malakoff (92).
Entreprise/Organisme :eXYSTAT
Niveau d'études :Master
Secteur d'activité :Santé
Description :eXYSTAT est une entreprise créée en 2013 pour apporter une expertise dans le domaine de la biométrie des études cliniques. Depuis 5 ans, eXYSTAT a collaboré avec plus d’une centaine de clients incluant aussi bien des laboratoires pharmaceutiques, des sociétés de biotechnologie, des CROs et des partenaires institutionnels. Afin de consolider son développement, eXYSTAT souhaite recruter un nouveau collaborateur pour renforcer son expertise statistique.
En savoir plus :http://www.exystat.com/fr/
20181116_annonce stat.pdf
Contact :francois.montestruc@exystat.com
Stage en biostatistique / bioinformatique
Publiée le 13/11/2018 16:19.
Référence : SFDS-204.
Stage, 172 rue de Charonne, 75011 Paris.
Entreprise/Organisme :DA VOLTERRA
Niveau d'études :Master
Sujet :“Antibiotic-induced Clostridium difficile infection in hamsters and prevention by DAV131A: analysis of gut microbiota dysbiosis”
Date de début :janvier/février 2019
Durée du contrat :6 mois
Secteur d'activité :Biotechnologie
Description :Da Volterra est une entreprise de biotechnologie dynamique basée à Paris développant un portefeuille de projets innovants dans le domaine des anti-infectieux et notamment dans la prévention des infections à Clostridium difficile ainsi que la prévention des résistances aux antibiotiques. Quatre essais cliniques ont déjà été conduits avec succès sur DAV132, le produit le plus avancé de l’entreprise. La société propose aujourd'hui un stage de 6 mois sur le sujet suivant : “Antibiotic-induced Clostridium difficile infection in hamsters and prevention by DAV131A: analysis of gut microbiota dysbiosis”. Vous travaillerez à l'interface de la biologie et de la bioinformatique/biostatistique. Votre mission est de réaliser des analyses bioinformatique/biostatistique sur des données métagénomiques issus d'essais précliniques et clinique (16S rRNA gene sequencing). Vous interagirez avec des biologistes et des biostatisticiens. Vous devez être capable de vous approprier rapidement les sujets et les outils, être intéressé par travailler dans le secteur médical, être organisé et être une source de proposition. Vous travaillerez essentiellement sur le programme R et vous avez une expertise dans les outils de traitement et d'analyse informatique des données. Une maîtrise de l'anglais oral et écrit est nécessaire. Formation nécessaire: Bac+5 Bioinformatique/Biostatistique Dates de stage: Janvier/Février 2019 pour une durée de 6 mois. Merci de candidater sous la référence SFDS-204, en envoyant votre CV et votre lettre de motivation à jobs@davolterra.com
En savoir plus :https://davolterra.com/
Contact :jobs@davolterra.com
Quantification multivariée de l’incertitude associée à la mesure de nanoparticules par sp-ICPMS
Publiée le 12/11/2018 19:09.
Référence : STA/ICPMS/DMSI.
Stage, Saint-Quentin en Yvelines.
Entreprise/Organisme :Laboratoire national de métrologie et d'essais (LNE)
Niveau d'études :Master
Date de début :Mars 2019
Durée du contrat :5-6 mois
Rémunération :1054 € bruts par mois
Description :Les nanoparticules manufacturées sont utilisées dans une grande variété de domaine d’application industriel ou de recherche. Des nanoparticules sont présentes dans les produits de consommation courants (cosmétique, produits alimentaires), les matériaux de grande complexité (pots catalytiques) ou sont à l’étude en tant que traitement médical (ex : traitement contre le cancer). De cette diversité d’utilisation naît le besoin de caractériser des nanoparticules, afin d’optimiser leur utilisation, de maîtriser leur dissémination dans l’environnement et de répondre à la réglementation. La distribution en taille et la concentration en nombre sont deux caractéristiques essentielles des nanoparticules qui permettent entre autre de répondre à la définition européenne de « nanomatériaux ». En effet, pour certains produits de consommation, l’étiquetage « nano » est devenu obligatoire si un des composants entre dans la catégorie « nanomatériaux ». Cette distinction est faite sur la base de la distribution en taille des nanoparticules (50% de particules de tailles inférieures à 100nm), ce qui implique de pouvoir à la fois compter les particules et déterminer leur taille. Actuellement, la caractérisation des nanoparticules est effectuée par une variété de techniques dont les performances et conditions d’applications restent à évaluer. Parmi ces techniques, la Single Particle Inductively Coupled Mass Spectrometry » ou sp-ICPMS, inspirée de la mesure de concentrations en éléments traces par spectrométrie de masse, présente un fort potentiel pour la mesure des deux paramètres d’intérêt que sont la concentration en nombre et la distribution en taille de nanoparticules. La sp-ICPMS a l’avantage sur la plupart des autres instruments de mesure de nanoparticules de permettre de cibler la nature chimique des nanoparticules (ex : titane, or..) même pour des échantillons dit complexes (par exemple une crème solaire constituée de plusieurs types de nanoparticules). L’un des principaux enjeux actuel de la mesure par sp-ICPMS est de fiabiliser le post-traitement des données et de déterminer une incertitude de mesure. En effet, bien que certains logiciels existent afin de calculer les tailles et concentrations en particules, aucun ne prévoit de calcul d’incertitude pourtant essentiel à la validation de méthodes et au classement des nanoparticules en tant que nanomatériaux. Plusieurs méthodes de traitement des données sont en outre actuellement utilisées, pouvant ainsi conduire à des résultats différents. Il convient donc de les comparer et d’évaluer les incertitudes qui leur sont associées pour pouvoir bien caractériser les matériaux étudiés ainsi que la performance de la sp-ICPMS par rapport aux autres méthodes. Missions : Actuellement, plusieurs méthodes de post-traitement des données brutes mesurées par sp-ICPMS sont utilisées. Vos missions principales consisteront à : - participer au développement informatique d’un outil pour le traitement des données de mesure par sp-ICPMS - implémenter, valider et comparer différentes méthodes de traitement des données - réaliser une étude de sensibilité de ces différentes méthodes afin d’identifier les paramètres les plus influents - évaluer l’incertitude de mesure sur la distribution en taille et la concentration en particules par des méthodes statistiques appropriées - rédiger une synthèse des travaux effectués A cette fin, l’instrument et la méthode de mesure vous seront présentés et plusieurs jeux de données seront mis à disposition afin de tester le traitement sur des échantillons simples (suspension aqueuse) et complexes (ex : échantillons biologiques). En particulier, les données issues d’une inter-comparaison internationale seront mises à disposition pour développer et tester le logiciel.
En savoir plus :https://www.lne.fr/fr/offre-emploi/stage-incertitude-mesure-nanoparticules
Stage LNE_DMSI - sp_ICPMS 2019.pdf
Contact :recrut@lne.fr
Segmentation et complétion de nanoparticules par algorithmes de Deep-learning sur des images MEB
Publiée le 12/11/2018 19:09.
Stage, Saint-Quentin en Yvelines.
Entreprise/Organisme :Laboratoire national de métrologie et d'essais (LNE)
Niveau d'études :Master
Sujet :Au sein de l’équipe Mathématiques appliquées et Statistiques composée de 8 personnes, et en collaboration avec les équipes opérationnelles en nanométrologie, vous intervenez sur des problématiques de traitement d’images et d’intelligence artificielle appliquées à la mesure de nanoparticules. La MEB est une technique largement répandue pour mesurer les propriétés dimensionnelles d’une population de nanoparticules. Elle donne des informations locales et la mesure des paramètres tels que la taille, la distribution en taille ou la forme et est réalisée sur un nombre limité de nanoparticules qui doit être représentatif de l’ensemble de l’échantillon. Diminuer l’incertitude associée aux mesures revient à fiabiliser les quatre étapes qui définissent le processus de mesurage : préparation de l’échantillon, étalonnage et caractérisation métrologique de l’instrument, acquisition des mesures et analyse et traitement des données. La dernière étape consiste à extraire des images effectuées avec le MEB, données qui seront utilisés ensuite pour quantifier les différents mesurandes. Les techniques microscopiques sont les seules capables d’apporter des informations fiables sur la forme des nanoparticules et la connaissance de ce paramètre conditionnera le choix du mesurande le plus approprié pour déterminer leur taille. L’algorithme développé pour la caractérisation des populations de nanoparticules de TiO2 est basé sur une approche par réseaux de neurones convolutionnels. Il est capable de mesurer des nanoparticules au sein d’agglomérats ou d’agrégats, c’est-à-dire, à partir de nanoparticules dont une partie seulement est imagée. Il assure donc la complétion de nanoparticules présentes sous forme d’agglomérats. Le stagiaire devra dans un premier temps prendre en main l’algorithme existant développé sous Tensorflow et réaliser une étude bibliographique des algorithmes de deep learning pouvant assurer la tâche de complétion. Il devra ensuite être force de proposition afin d’améliorer l’architecture existante pour assurer un haut niveau de performances en complétion. Dans la deuxième partie du stage, il s’agira d’implémenter une ou plusieurs alternatives à l’algorithme utilisé afin de réaliser un benchmark des performances en complétion pour les algorithmes assurant l’état de l’art actuel en deep learning. Les développements seront finalement intégrés sur la plate-forme logicielle dédiée à la mesure métrologique des nanoparticules développée en collaboration avec la start-up Pollen Metrology. Missions : Au sein de l’équipe, vous participerez aux différentes étapes du projet : - Prise en main de l’algorithme développé au sein de l’équipe - Etude bibliographique des algorithmes de deep learning en mesure de réaliser la tâche de complétion d’images de nanoparticules - Amélioration de l’algorithme existant pour assurer un haut niveau de performances en complétion - Développement d’une ou plusieurs alternatives à l’algorithme développé - Benchmark des algorithmes de deep learning pour la complétion d’images de nanoparticules - Rédaction d’un document de synthèse Profil : Vous recherchez un stage dans le cadre de votre formation de niveau Bac + 5 en Mathématiques Appliquées et vous possédez des connaissances avancées en traitement d’images et méthodes de deep learning. Une première expérience des réseaux de neurones convolutionnels ainsi qu’une connaissance de l’environnement de développement Tensorflow avec une première mise en pratique sont demandées. Vous souhaitez vous spécialiser dans les domaines AI, data science. Vous possédez d’excellentes capacités rédactionnelles et de communication. Vous disposez d’une curiosité scientifique forte ainsi que d’un vif intérêt pour les nanosciences.
Date de début :Mars 2019
Durée du contrat :5-6 mois
Rémunération :1054 € bruts par mois
Description :Au sein de l’équipe Mathématiques appliquées et Statistiques composée de 8 personnes, et en collaboration avec les équipes opérationnelles en nanométrologie, vous intervenez sur des problématiques de traitement d’images et d’intelligence artificielle appliquées à la mesure de nanoparticules. La MEB est une technique largement répandue pour mesurer les propriétés dimensionnelles d’une population de nanoparticules. Elle donne des informations locales et la mesure des paramètres tels que la taille, la distribution en taille ou la forme et est réalisée sur un nombre limité de nanoparticules qui doit être représentatif de l’ensemble de l’échantillon. Diminuer l’incertitude associée aux mesures revient à fiabiliser les quatre étapes qui définissent le processus de mesurage : préparation de l’échantillon, étalonnage et caractérisation métrologique de l’instrument, acquisition des mesures et analyse et traitement des données. La dernière étape consiste à extraire des images effectuées avec le MEB, données qui seront utilisés ensuite pour quantifier les différents mesurandes. Les techniques microscopiques sont les seules capables d’apporter des informations fiables sur la forme des nanoparticules et la connaissance de ce paramètre conditionnera le choix du mesurande le plus approprié pour déterminer leur taille. L’algorithme développé pour la caractérisation des populations de nanoparticules de TiO2 est basé sur une approche par réseaux de neurones convolutionnels. Il est capable de mesurer des nanoparticules au sein d’agglomérats ou d’agrégats, c’est-à-dire, à partir de nanoparticules dont une partie seulement est imagée. Il assure donc la complétion de nanoparticules présentes sous forme d’agglomérats. Le stagiaire devra dans un premier temps prendre en main l’algorithme existant développé sous Tensorflow et réaliser une étude bibliographique des algorithmes de deep learning pouvant assurer la tâche de complétion. Il devra ensuite être force de proposition afin d’améliorer l’architecture existante pour assurer un haut niveau de performances en complétion. Dans la deuxième partie du stage, il s’agira d’implémenter une ou plusieurs alternatives à l’algorithme utilisé afin de réaliser un benchmark des performances en complétion pour les algorithmes assurant l’état de l’art actuel en deep learning. Les développements seront finalement intégrés sur la plate-forme logicielle dédiée à la mesure métrologique des nanoparticules développée en collaboration avec la start-up Pollen Metrology. Missions : Au sein de l’équipe, vous participerez aux différentes étapes du projet : - Prise en main de l’algorithme développé au sein de l’équipe - Etude bibliographique des algorithmes de deep learning en mesure de réaliser la tâche de complétion d’images de nanoparticules - Amélioration de l’algorithme existant pour assurer un haut niveau de performances en complétion - Développement d’une ou plusieurs alternatives à l’algorithme développé - Benchmark des algorithmes de deep learning pour la complétion d’images de nanoparticules - Rédaction d’un document de synthèse
En savoir plus :https://www.lne.fr/fr/offre-emploi/stage-segmentation-completion-nano-images-meb
Stage LNE_DMSI - IA NANO 2019.pdf
Contact :nicolas.fischer@lne.fr
Modélisation dynamique de la pepsinolyse in vitro à partie de données de peptidomique
Publiée le 12/11/2018 14:51.
Référence : DYNPEPSINOLYSE.
Stage, Agrocampus Ouest, 65 rue de St-Brieuc, 35042 Rennes cedex.
Entreprise/Organisme :Agrocampus Ouest, département Statistique et Informatique
Niveau d'études :Master
Sujet :De nombreux travaux ont montré que la manière dont une protéine est structurée, déstructurée, agrégée et/ou gélifiée impacte sa protéolyse au cours de la digestion, notamment par la pepsine au cours de la phase gastrique, avec des conséquences métaboliques potentielles. Cependant, malgré une description de plus en plus « fine » du déroulement de la digestion protéique, nos connaissances sont encore très parcellaires quant aux mécanismes sous-jacents et notamment quant au mode de fonctionnement des enzymes digestives. En particulier, la question de la dynamique de la protéolyse, au sens de la « filiation » des peptides au cours de la digestion n’a pas encore été abordée, alors même que la dynamique est une caractéristique majeure du processus de digestion. L’enjeu principal du projet est ainsi d’appréhender les règles mécanistiques qui déterminent que tel site de coupure soit hydrolysé avant tel autre, pour finalement parvenir à modéliser la dynamique de protéolyse par la pepsine, en intégrant aux modèles les paramètres susceptibles d’influencer cette dynamique. Les paramètres étudiés seront intrinsèques aux protéines (structure moléculaire et supramoléculaire) et extrinsèque (pH). C’est une approche totalement originale et transdisciplinaire que le projet se propose de développer, par la mise en œuvre d’outils et de démarches statistiques innovants, appliqués à des données peptidomiques. Les démarches de modélisation envisagées s’inspirent des méthodes dites de machine learning, utilisées dans les problématiques de prédiction à partir de données à haut débit. Pour chaque séquence d’acides aminés présente en début de digestion, elles visent à estimer des probabilités de coupure aux temps d’observation prévus dans le dispositif expérimental. Les modèles d’évolution dans le temps de ces probabilités dépendent eux-mêmes de manière non-paramétrique (modèles additifs généralisés) des caractéristiques physico-chimiques des peptides. Ce cadre général offre des outils statistiques pour mieux identifier et hiérarchiser les facteurs, propres à chaque peptide, mais aussi spécifiques à chaque protéine, voire aux conditions de la digestion, expliquant les variations dans les dynamiques de coupures. Il offre aussi un nouveau cadre de réflexion pour la valorisation des données de spectrométrie de masse dans une finalité de modélisation d’une dynamique de protéolyse.
Date de début :Février 2019
Durée du contrat :6 mois
Rémunération :Environ 550€/mois
Secteur d'activité :Recherche en statistique appliquée à la biologie
Description :De nombreux travaux ont montré que la manière dont une protéine est structurée, déstructurée, agrégée et/ou gélifiée impacte sa protéolyse au cours de la digestion, notamment par la pepsine au cours de la phase gastrique, avec des conséquences métaboliques potentielles. Cependant, malgré une description de plus en plus « fine » du déroulement de la digestion protéique, nos connaissances sont encore très parcellaires quant aux mécanismes sous-jacents et notamment quant au mode de fonctionnement des enzymes digestives. En particulier, la question de la dynamique de la protéolyse, au sens de la « filiation » des peptides au cours de la digestion n’a pas encore été abordée, alors même que la dynamique est une caractéristique majeure du processus de digestion. L’enjeu principal du projet est ainsi d’appréhender les règles mécanistiques qui déterminent que tel site de coupure soit hydrolysé avant tel autre, pour finalement parvenir à modéliser la dynamique de protéolyse par la pepsine, en intégrant aux modèles les paramètres susceptibles d’influencer cette dynamique. Les paramètres étudiés seront intrinsèques aux protéines (structure moléculaire et supramoléculaire) et extrinsèque (pH). C’est une approche totalement originale et transdisciplinaire que le projet se propose de développer, par la mise en œuvre d’outils et de démarches statistiques innovants, appliqués à des données peptidomiques. Les démarches de modélisation envisagées s’inspirent des méthodes dites de machine learning, utilisées dans les problématiques de prédiction à partir de données à haut débit. Pour chaque séquence d’acides aminés présente en début de digestion, elles visent à estimer des probabilités de coupure aux temps d’observation prévus dans le dispositif expérimental. Les modèles d’évolution dans le temps de ces probabilités dépendent eux-mêmes de manière non-paramétrique (modèles additifs généralisés) des caractéristiques physico-chimiques des peptides. Ce cadre général offre des outils statistiques pour mieux identifier et hiérarchiser les facteurs, propres à chaque peptide, mais aussi spécifiques à chaque protéine, voire aux conditions de la digestion, expliquant les variations dans les dynamiques de coupures. Il offre aussi un nouveau cadre de réflexion pour la valorisation des données de spectrométrie de masse dans une finalité de modélisation d’une dynamique de protéolyse.
En savoir plus :http://math.agrocampus-ouest.fr/infoglueDeliverLive/
Offre de stage M2 - Modélisation Dynamique Pepsinolyse.pdf
Contact :david.causeur@agrocampus-ouest.fr
Statistical testing for event-related potentials data. Validation of a testing strategy, implementat
Publiée le 12/11/2018 14:51.
Référence : ERPTEST.
Stage, Agrocampus Ouest, 65 rue de St-Brieuc, 35042 Rennes cedex.
Entreprise/Organisme :Agrocampus Ouest, département Statistique et Informatique
Niveau d'études :Master
Sujet :Event-related potentials (ERPs) are recordings of electrical activity along the scalp time-locked to perceptual, motor and cognitive events. Such high-throughput instrumental data provide high temporal resolution to chart the time course of mental processes. With the routine collection of massive amounts of data from ERP studies, researchers must face the challenge of signal detection, which shall guarantee a low false positive error rate while maintaining sufficient power. How to achieve this objective for ERP data exhibiting arbitrarily strong temporal dependence is the focus of the present paper. In the 'Rare and Weak' (RW) paradigm introduced by Donoho and Jin (2004), the former authors demonstrate that a detection method called Higher Criticism Thresholding, which is based on a distance between the empirical probability distribution function of the p-values and the uniform null distribution, achieves the theoretically optimal decision limits. As reported in Causeur et al. (2012), the pronounced auto-correlation observed in ERP data can however induce a long-range regularity for the test statistics, resulting in spuriously low p-values outside of the support of the signal, which in turn can affect the control of type-I error rate of signal detection procedures. As in Perthame et al. (2015) and Sheu et al. (2016), the objective of the internship position is to develop an alternative approach of decorrelated signal detection based on a flexible factor model for time-dependence.
Date de début :Février 2019
Durée du contrat :6 mois
Rémunération :Environ 550€/mois
Secteur d'activité :Recherche en statistique appliquée à la biologie
Description :Event-related potentials (ERPs) are recordings of electrical activity along the scalp time-locked to perceptual, motor and cognitive events. Such high-throughput instrumental data provide high temporal resolution to chart the time course of mental processes. With the routine collection of massive amounts of data from ERP studies, researchers must face the challenge of signal detection, which shall guarantee a low false positive error rate while maintaining sufficient power. How to achieve this objective for ERP data exhibiting arbitrarily strong temporal dependence is the focus of the present paper. In the 'Rare and Weak' (RW) paradigm introduced by Donoho and Jin (2004), the former authors demonstrate that a detection method called Higher Criticism Thresholding, which is based on a distance between the empirical probability distribution function of the p-values and the uniform null distribution, achieves the theoretically optimal decision limits. As reported in Causeur et al. (2012), the pronounced auto-correlation observed in ERP data can however induce a long-range regularity for the test statistics, resulting in spuriously low p-values outside of the support of the signal, which in turn can affect the control of type-I error rate of signal detection procedures. As in Perthame et al. (2015) and Sheu et al. (2016), the objective of the internship position is to develop an alternative approach of decorrelated signal detection based on a flexible factor model for time-dependence.
En savoir plus :http://math.agrocampus-ouest.fr/infoglueDeliverLive/
Internship - Master 2 - ERP testing.pdf
Contact :david.causeur@agrocampus-ouest.fr
Apprentissage statistique d’images hyperspectrales pour la prédiction de la qualité de la viande
Publiée le 12/11/2018 12:07.
Référence : HyperScanLearn.
CDD, Agrocampus Ouest, 65 rue de St-Brieuc, 35042 Rennes cedex.
Entreprise/Organisme :Agrocampus Ouest, département Statistique et Informatique
Niveau d'études :Master
Date de début :Février 2019
Durée du contrat :6 mois
Rémunération :1442,43€ (net mensuel)
Secteur d'activité :Recherche en statistique appliquée à la biologie
Description :Le projet Hyperscan (CASDAR, Ministère de l’Agriculture, programme 2017-2020 « recherche technologique pour la compétitivité et la durabilité des filières de la production à la transformation ») est piloté par l’IFIP (Institut du porc) et rassemble des chercheurs des UMR FOTON (CNRS, Université de Rennes 1), PEGASE (INRA, Agrocampus Ouest), IRMAR (CNRS, Agrocampus Ouest) et le groupe agro-industriel Fleury-Michon. L’objectif général du projet est de développer des technologies innovantes de tri des pièces de découpe de porc selon la qualité attendue par les transformateurs et les consommateurs. En particulier, le projet prévoit la conception d’un imageur hyperspectral pour la prédiction de la qualité technologique de la longe et sa qualité sensorielle. Dans cette optique, la mission de l’ingénieur recruté vise à explorer et comparer les performances de méthodes d’apprentissage statistiques pour ce type de données d’imagerie.
En savoir plus :http://math.agrocampus-ouest.fr/infoglueDeliverLive/
Offre IE 6 mois.pdf
Contact :david.causeur@agrocampus-ouest.fr
Stage : Modélisation statistique pour la comparaison de transcriptomes inter-espèces
Publiée le 12/11/2018 11:50.
Référence : Stage : Modélisation statistique pour la comparaison de transcriptomes inter-espèces.
Stage, Université Paris Sud, Bât. 400, Orsay.
Entreprise/Organisme :Université Paris Sud, Institut de Biologie Intégrative de la Cellule
Niveau d'études :Master
Sujet :Modélisation statistique pour la comparaison de transcriptomes inter-espèces
Date de début :Entre janvier et avril 2019
Durée du contrat :6 mois
Rémunération :Environ 500 euros
Secteur d'activité :Recherche
Description :Les techniques de séquençage à haut débit permettent de séquencer les génomes et transcriptomes (RNA-Seq) de tous les organismes vivants. Ceci est une révolution dans le domaine de la biologie comparative, et permet d’accéder aux bases moléculaires de l’évolution et de l’adaptation des espèces. Cependant, ces études restent encore large- ment qualitatives car il n’existe actuellement pas de méthode statistique validée inté- grant des données RNA-Seq pour comparer de manière quantitative les transcriptomes d’espèces éloignées. Pour effectuer ce type d’analyse, des groupes de gènes orthologues possédant des fonctions similaires (i.e. Cluster of Orthologous Genes ou COGs) ont été identifiés à partir de transcriptomes, produits par assemblage de novo (1). L’objectif du stage est de proposer une modélisation du niveau d’expression de ces COGs, prenant compte de tous les biais possibles introduits par les différentes étapes de la quantifica- tion de ces niveaux d’expression (2). La méthode sera développée et validée à partir de sets de données RNA-Seq cohérents déjà obtenus à partir d’espèces végétales (3), et sera facilement transposable à d’autres organismes et d’autres problématiques scientifiques. L’outil développé pourra être mis à disposition de la communauté sous la forme d’un package R CRAN ou Bioconductor.
En savoir plus :http://melina-gallopin.fr/research.html
biblatex-2.pdf
Contact :melina.gallopin@u-psud.fr
Méthodes bayésiennes de reproductibilité en études cliniques
Publiée le 11/11/2018 20:56.
Stage, Aulnay-sous-bois (93).
Entreprise/Organisme :L'Oréal
Niveau d'études :Master
Description :Au sein du Calcul Scientifique, les missions confiées au stagiaire seront les suivantes :  Recensement des méthodes bayésiennes, indicateurs de reproductibilité en études cliniques (puissance bayésienne, probabilité de succès, distributions prédictives, calcul du nombre de sujet, …). Rédaction d’un rapport bibliographique.  Implémentation sur R  Application des techniques pour aide à la prise de décision Le stagiaire, à travers ses missions, développera les compétences suivantes :  Approfondissement des connaissances en méthodologie statistique des études cliniques, en statistique bayésienne ainsi qu’en algorithmique  Aptitude à la synthèse et à la rédaction  Gestion d’un projet en autonomie  Aptitude à communiquer ses résultats scientifiques à un large public Le stagiaire sera amené à faire des réunions de travail internes au Calcul Scientifique mais aussi en collaboration avec les métiers de la R&I. Les principales compétences techniques et relationnelles recherchées sont :  Statistique (Théorie des tests), Probabilité, Intégration, Analyse bayésienne  Programmation en R  Connaissances des études cliniques  Autonomie, capacités rédactionnelle et organisationnelle  Notions en sciences du vivant Type de formation souhaitée : BAC +5, école d’ingénieur, master 2 en statistiques, …. Langue(s) à maîtriser : Anglais Logiciel(s) spécifique(s) à maîtriser : R, Pack Office
En savoir plus :NA
L'Oreal Calcul Scientifique Offre de stage 2019.pdf
Contact :hussein.jouni@rd.loreal.com
PhD ESSEC Operations & Data Analytics
Publiée le 09/11/2018 16:34.
Référence : ESSEC_PhD_Data_Analytics.
Thèse, ESSEC Business School, Cergy, France.
Entreprise/Organisme :ESSEC Business School
Niveau d'études :Master
Sujet :Thèse PhD en Data Analytics (statistiques, économétrie, big data, management du risque). Sujet de thèse à définir en 2è année de PhD avec le(s) professeur(s) encadrant(s). Cours PhD sur 1,5 an.
Date de début :Septembre 2019
Durée du contrat :4 ans
Rémunération :Bourse de 23000E par an pendant 4 ans
Secteur d'activité :Education
Description :Programme PhD de l'ESSEC: cours 1,5 an + thèse. Les étudiants sélectionnés sont financés automatiquement pendant 4 ans. La période de cours PhD dure 1,5 an, mais les modules de recherche commencent dès l’année 1 avec des professeurs. Choisir la spécialisation "Data Analytics" de la filière ODA du PhD (80% des cours en statistiques / économétrie / risque). Deadlines pour candidater : 15 janvier (session 1); 15 mai (session 2); Attention : scores GMAT ou GRE, et TOEFL requis dans le dossier (voir "Admissions" sur le site web du PhD).
En savoir plus :http://www.essec.edu/en/program/phd-en/phd-program/
annonce_PhD_ESSEC_Data_Analytics_SFDS.pdf
Contact :alfandari@essec.edu

Page précédente  1  2  3  <4>  5  6  7  8  9  Page suivante

 
 
©2018 SFdS
Société Française de Statistique
Institut Henri Poincaré
11 rue Pierre et Marie Curie
75231 Paris cedex 5
Tél. : +33 (0)1 44 27 66 60
Notre site a été supporté par :