Skip to content

Blogs de Développeurs: Aggrégateur de Blogs d'Informatique sur .NET, Java, PHP, Ruby, Agile, Gestion de Projet

Forum Logiciel

Forum Logiciel : diffusion de connaissance et d’informations sur toutes les activités liées au développement d’applications informatiques en entreprise.

Agrégateur de flux

How to reduce email overload with JIRA Service Desk

Le blog de Valiantys - mar, 02/21/2017 - 15:00

A long list of emails, waiting in the inbox, is one of the major killers of productivity. This is an especially dreaded task after a few days – or weeks – out of the office. Many people may be tempted to simply delete their emails in mass and hope for reminders to be sent again ...

The post How to reduce email overload with JIRA Service Desk appeared first on Valiantys - Atlassian Platinum Partner.

Catégories: Blog Société

Visualiser de volumineux flux de données: un problème de transports publics

Les entreprises de transports publics mettent chaque jour à disposition de plus en plus de données. Certaines ont franchi le pas et ouvrent leurs systèmes d’information et exposent même des flux de données en temps réels, comme par exemple les CFF en Suisse, la RATP à Paris ou les TPG à Genève). Des horizons s’ouvrent pour de nouvelles  expériences!

Ces entreprises publient aussi les horaires de tous leurs trajets. En Suisse, l’Union des Transports Publics donne ainsi accès aux horaires des trains, bus, tramways, bateaux et même des téléphériques.

Nous nous proposons de décrire une application construite pour visualiser, en temps accéléré, un jour de l’activité des transports à travers le pays, comme exposé dans ce film. Comme les informations en temps réel ne sont pas encore totalement disponibles à large échelle, nous sommes servis des horaires comme source de simulation. L’occasion était trop belle pour ne pas connecter cette mine d’information à une application mêlant Play/Scala/Akka sur le serveur et Angular 2/Pixi/D3/Topojson dans le browser, liés entre eux par un flux de Server Side Events.

Le but de ce prototype est d’explorer les possibilités pour afficher de gros volumes de données géographiques, en appliquant une méthode décrite dans un précédent post.
La suite de l’article (en anglais).

Catégories: Blog Société

RĂ©trospective Agile: Mes exercices favoris

Qualitystreet - Jean Claude GROSJEAN - dim, 02/19/2017 - 22:37

Les rĂ©trospectives sont des moments clĂ©s dans la vie d’une Equipe et d’un projet… Voici pour vous qui ĂŞtes amenĂ©s Ă  les animer frĂ©quemment, les exercices de base sur lesquelles je m’appuie! Evidemment tout commence par le Postulat de la RĂ©trospective (en Ouverture) et par un Plan d’action en fin de retro:     Pour…

The post RĂ©trospective Agile: Mes exercices favoris appeared first on QualityStreet - Blog Agile depuis 2007.

Catégories: Blog Individuel

Xebia’s Mobile Things S01E04 : L’intégration continue au sein d’un projet mobile

 

Le prochain Ă©pisode de Mobile Things sera cette fois-ci consacrĂ© Ă  l’outillage mobile et plus prĂ©cisĂ©ment aux solutions d’intĂ©gration continue pour les deux principales plateformes mobiles Android et iOS.

Que ce soit au dĂ©marrage ou au cours d’un projet, un dĂ©veloppeur mobile cherchant Ă  automatiser le cycle de build et de dĂ©ploiement continue de son application s’est toujours retrouvĂ© face au choix des outils qui vont composer son usine logicielle. Jenkins a fait ses preuves aujourd’hui mais il a aussi ses limitations et ne rĂ©pond pas forcĂ©ment Ă  toutes les problĂ©matiques mobiles. D’autres outils ont Ă©mergĂ© depuis, comme Bitrise ou TravisCI.

L’intĂ©gration continue avec PagesJaunes 

Dans le cadre de ce 4ème Mobile Things, nous accueillerons l’Ă©quipe mobile de PagesJaunes qui va nous faire un retour d’expĂ©rience sur l’utilisation de Bitrise au sein de leur projet, les gains et les bĂ©nĂ©fices de cet outil et comment il leur a permis de garantir la qualitĂ© de leur application.

Nous vous donnons donc rendez-vous le 15 mars à 19h30 dans les locaux de Xebia, au 7ème étage du 156 boulevard Haussmann 75008 Paris.

Nous vous invitons à vous inscrire, dès à présent, sur ce lien eventbrite.

Comme d’habitude, cet Ă©vĂ©nement technique se prolongera autour d’un verre pour Ă©changer et partager vos expĂ©riences avec la communautĂ© mobile.

Catégories: Blog Société

Rendez-vous au salon Big Data Paris, les 6 et 7 mars prochains.

Les 6 et 7 mars prochains, Xebia Data Factory sera au salon Big Data Paris ! Nous vous attendons sur le stand 315.

Pionniers en France sur les technologies (Big) Data, nous avons déjà réalisé plus de 12 projets pour nos clients depuis 2010. C’est donc tout naturellement que nous serons présents au plus grand salon français pour parler des pratiques Data avec vous.

(Re)découvrez l’un des projets Data mené par Xebia

Lors de la XebiCon, Arnaud Etevenard, Responsable division projets Domaine Client chez PMU, Ă©tait venu parler du projet Big Data et de la transformation data driven, initiĂ©e il y a un an et demi avec l’aide de Xebia. Ce projet permet notamment d’amĂ©liorer la communication avec les clients et les prospects et de mieux connaĂ®tre les clients.

Vous pouvez Ă©couter Arnaud faire un retour d’expĂ©rience sur ce projet Mardi 7 Ă  16h40, ou bien revoir la vidĂ©o de sa confĂ©rence Ă  la XebiCon 2016.

Venez rencontrer Xebia Data Factory

Depuis 2 ans, Xebia a dĂ©cidĂ© d’accĂ©lĂ©rer sa croissance dans la data en crĂ©ant Xebia Data Factory.

En effet, nous fournissons à nos clients l’ensemble des compétences nécessaires à la mise en place d’un projet (Big) Data. Grâce à notre expérience riche de plus de 12 projets en production, nous fournissons à nos clients un savoir faire méthodologique, technologique et statistique qui nous permet de dégager immédiatement la valeur des données grâce à une démarche itérative et incrémentale.

Vous voulez d’ores et déjà en savoir plus ? Visitez le site de la Xebia Data Factory ou bien retrouvez notre expertise dans le TechTrends DataLab : bonne lecture.

On vous présentera Amalthea & Datalake Platform

Amalthea est une sociĂ©tĂ© Ă©ditrice de logiciels incubĂ©e par Xebia. Son premier produit, Datalake Platform, permet de simplifier et automatiser les tâches communes de management des donnĂ©es au sein d’un Data Lake et d’assurer la mise en place d’une telle plateforme Ă  un coĂ»t rĂ©duit et dans des dĂ©lais courts.
Conçu nativement sur les technologies Open Source de l’écosystème Big Data (Hadoop, Spark, Hive, Impala, etc.), il vous permet :

  • De constituer un catalogue de donnĂ©es intĂ©grĂ©es.
  • D’automatiser la prĂ©paration, la consolidation et la mise Ă  disposition des donnĂ©es aux data analysts, data scientists et systèmes tiers (outils de BI, Data Science, etc.).
  • De surveiller l’intĂ©gration et la prĂ©paration de donnĂ©es brutes.
  • De rĂ©aliser une analyse statistique des donnĂ©es du Data Lake.
  • D’assurer la conformitĂ© du Data Lake aux exigences de sĂ©curitĂ© et de confidentialitĂ© de la donnĂ©e.

Datalake Platform fournit les outils nécessaires pour mettre en place une gouvernance des données efficace.

Vous voulez en savoir plus sur le Datalake Platform ? Rendez-vous les 6 et 7 mars au salon Big Data Paris (stand 315) !

Catégories: Blog Société

LCC 163 - Y a la techno de la semaine et la techno du week-end

Eépisode chargé en sujets: langages, web, data, big data, sécurité, organisation sans oublier Donald (pas le neveu de Picsou). Merci à Saagie pour leur aide !

Enregistré le 15 février 2017

Téléchargement de l’épisode LesCastCodeurs-Episode–163.mp3

News Langages

Les nouveautés de Java Time dans Java SE 9
Jigsaw et les automodules on vous aura prévenu …
Groovy is the new black
Francesc Campoy qui donne une overview de Go 1.8 Impact de la structure de l’API sur les performance - Go et logging
Les tags du week-end sur Stack Overflow

Web

Le top 2016 du Javascript : Basé sur les étoiles github Basé sur un sondage

  • Front: Vue.Js au top
  • Build : Grunt est mort, Gulp en baisse et Webpack devient la rĂ©fĂ©rence.
  • IDE : Visual Studio Code et Atom
  • La : Jasmine et Mocha toujours lĂ , AVA et Jest sont les nouveaux. Gros impact de facebook!

DĂ©ployer une application Ratpack sur Google App Engine Flex
Les 10 meilleurs frameworks web Java de 2017 Performance de démarrage de JavaScript
(optionnel) Retour sur React Native par Instagram

Middleware

Hazelcast lance Jet, un stream processing engine OSS

MiniShift: deploiement local pour OpenShift
Les produits Google résumés en 4 mots
gRPC chez la Cloud Native Computing Foundation
Bean Validation 2.0 early draft
La spec MVC, transférée à Ivar Grimstad

Data

Ransomware contre Elasticsearch

Google lance son Cloud Spanner, sa supra base de données distribuée ACID
Google Cloud Spanner viole-t-il le théorême de CAP?
Google Cloud Spanner

Post-mortem ReThinkDB
ReThinkDB rejoins la fondation Linux et CNCF
RĂ©Ă©crire son appli RethinkDB avec PostgreSQL
PostgreSQL capable de traiter plein de use cases différents

Spark 2.1
Kudu 1.2
Investissement en cours sur la Data Gouvernance

Intel Big DL, grosse bataille Intel versus NVidia sur le Deep Learning :

Construiser votre CSS avec du Deep Learning

Jeff Dean sur l’état du Machine Learning aujourd’hui
Jeff Dean sur Tensorflow
Article du New York Times sur l’intelligence artificielle et Google Brain

Podcast Big Data (et autre) :

Saagie

Logo Saagie

Saagie est une start-up éditeur dans le Big Data. Bon tout le monde parle de Big Data et c’est un peu le mot à la mode, mais chez Saagie nous faisons vraiment du BIG DATA.

Nous éditons Saagie Data Fabric pour industrialiser les mises en production de big data et de data science (Data Fabric ~ Plateforme de développement Data) avec l’option Saagie Data Governance pour organiser votre lac de données. L’ensemble est déployable sur notre cloud, sur amazon ou azure et via notre appliance avec option Deep Learning et HPC.

Les postes ouverts

Sécurité

Retour de la FIC

DevOps

Rise of the ChatOps :

GitLab et ses backups

Open Source

Github annonce les guides OSS pour aider à monter/contribuer à l’OSS
Open Source Guides

Organisation/Agile

Talk Beyond breaking bad
noproject
Je n’embauche jamais de poisson panné par Quentin Adam
Rise of the Data Engineer

Outillage

Utiliser Ngrok, Google Cloud Functions, API.AI pour faire des bots
Microsoft annonce un Git File System
Jenkins Declarative Pipeline 1.0 (+ Pipeline Editor Preview) et SCM API 2.0
Des slides HTML en Markdown exportés en PDF

Société

La France introduit des visas particuliers pour les entrepreneurs
D’un trait de plume Donald Trump manque de faire exploser le Privacy Shield

Outil de l’épisode

JVM mon

Conférences

Quelques conseils pour écrire une proposition de conférence
10-ways-for-a-conference-to-upset-their-speakers - Troy Hunt
10-ways-for-speaker-to-upset-conference - Nicolas Deloof

Le ParisJUG se lance dans adopt-a-JSR: un message en crowdcast

Salon Big Data Paris les 5–6 mars 2017
Printemps Agile le 9 mars 2017
Devoxx France les 5–7 avril 2017
Mix-IT les 20–21 avril 2017
Breizhcamp les 19–21 avril 2017
RivieraDev les 11–12 mai 2017
DevFest Lille 9 juin - inscriptions et CfP ouvert Voxxed Days au Luxembourg

Nous contacter

Faire un crowdcast ou une crowdquestion
Contactez-nous via twitter https://twitter.com/lescastcodeurs
sur le groupe Google https://groups.google.com/group/lescastcodeurs
ou sur le site web https://lescastcodeurs.com/
Flattr-ez nous (dons) sur https://lescastcodeurs.com/
En savoir plus sur le sponsoring? sponsors@lescastcodeurs.com

 

Catégories: Blog Individuel

Revue de Presse Xebia


La revue de presse hebdomadaire des technologies Big Data, DevOps et Web, architectures Java et mobilité dans des 

environnements agiles, proposée par Xebia.revue de presse Xebia

 Front Fusebox, le nouvel outil de bundling JS http://www.gravatar.com/avatar/37a6259cc0c1dae299a7866489dff0bdhttp://blog.xebia.fr/author/nullhttp://twitter.com/ReeskaFrhttp://github.com/ReeskaPar Thomas Champion

Fusebox est un concurrent Ă  Webpack dont il s’en inspire fortement. Il se veut plus simple et plus rapide en embarquant un certain nombre de plugins prĂŞt Ă  l’emploi qui permettent de supporter Typescript, ES6+, JSX etc.

Comme expliquĂ© dans l’article prĂ©sentant Fusebox, une de ces grandes forces est sa rapiditĂ©. En effet pour certains projets il mettra 5 fois moins de temps Ă  construire le bundle, ce qui amĂ©liore d’autant le hot reload.

L’outil est rĂ©cent et contient encore des dĂ©fauts, mais l’Ă©quipe travaille activement Ă  l’amĂ©liorer.

Comprendre et amĂ©liorer les performances au dĂ©marrage d’une application Javascript http://www.gravatar.com/avatar/1e0ca9963bcd96ba434e5e4ffd972c2fhttp://blog.xebia.fr/author/aletaxin1http://twitter.com/ModuloMhttps://github.com/ModuloMPar Antoine Le Taxin Avec la dĂ©mocratisation des SPA et l’utilisation de plus en plus intensive du Javascript, le coĂ»t de traitement au chargement de la première page de votre application ou de votre site peut devenir important. Addy Osmani dĂ©crit dans un article très dĂ©taillĂ©, beaucoup de mĂ©canisme qui rentrent en jeu lors du chargement de votre code et de son parsing dans un navigateur. PlutĂ´t centrĂ© sur le moteur V8, l’article pointe vers des ressources très intĂ©ressantes qui pourront vous permettre de mieux comprendre et d’amĂ©liorer vos performances de dĂ©marrage quelque soit le navigateur cible. Back  Release party Go 1.8 http://www.gravatar.com/avatar/0681cc601779042a211373dd45de3e8ahttp://blog.xebia.fr/author/dortegahttp://twitter.com/dicaormuPar Diana Ortega

Dave Cheney,  contributeur du Go et auteur reconnu dans la communautĂ© Golang, a proposĂ© une « release party » pour cĂ©lĂ©brer la release de la version 1.8 de Go. Ce sont plusieurs meetups Golang dans le monde qui se sont donnĂ©s rendez-vous ce 16 FĂ©vrier.Vous pouvez les consulter pour voir s’il y en a un près de chez vous. La version 1.8 de Go arrive avec plusieurs amĂ©liorations, notamment la crĂ©ation d’un GOPATH par dĂ©faut, support de nouvelles plateformes et des amĂ©liorations dans le runtime et le garbage collector. Vous pouvez aussi consulter l’Ă©tat de Go Ă  fĂ©vrier 2016.

Data Pinterest annonce Lens, Instant Ideas et Shop the Look http://www.gravatar.com/avatar/2d2dbdf5d060b4c1bb238f8f59185cfbhttp://blog.xebia.fr/author/http%3A%2F%2Fgithub.com%2Fgiulbiahttp://github.com/mbretonPar Giulia Bianchi

Pinterest vient d’annoncer trois nouveaux produits de visual discovery dans son article de blog Introducing the future of visual discovery on Pinterest.

Lens reconnaĂ®t un objet dans une image prise par l’utilisateur et lui propose des objets inspirĂ©s par l’image. Shop the Look propose l’achat de produits vus dans un Pin. Instant Ideas est le nouveau moyen de personnalisation du home feed en temps rĂ©el.

Les trois produits sont nĂ©s grâce Ă  la recherche en computer vision commencĂ©e par Pinterest en 2014. Leur outil visual search, issu de cette recherche, est maintenant l’une de fonctionnalitĂ© les plus utlisĂ©es de Pinterest.

Yahoo! open source TensorFlowOnSpark http://www.gravatar.com/avatar/6fa0edd308b50104cf80071bcde80633http://blog.xebia.fr/author/ybenoithttp://twitter.com/YoannBENOIThttp://github.com/ybenoitPar Yoann Benoit

Yahoo! a annoncĂ© cette semaine la sortie de TensorFlowOnSpark, un framework Open Source permettant l’exĂ©cution distribuĂ©e de code TensorFlow sur Spark. C’est le deuxième framework de Deep Learning que Yahoo! propose en mode distribuĂ© après CaffeOnSpark.

Ce nouveau framework pousse un cran plus loin la distribution de l’exĂ©cution de code TensorFlow proposĂ©e par le projet TensorFrames, avec la promesse que les modifications Ă  apporter dans le code pour migrer de tensorFlow Ă  TensorFlowOnSpark sont mineures.

TensorFlow 1.0 is out ! http://www.gravatar.com/avatar/6fa0edd308b50104cf80071bcde80633http://blog.xebia.fr/author/ybenoithttp://twitter.com/YoannBENOIThttp://github.com/ybenoitPar Yoann Benoit

L’annonce a Ă©tĂ© rendue officielle lors du TensorFlow Dev Summit du 15 FĂ©vrier, la version 1.0 de TensorFlow est arrivĂ©e ! Beaucoup de nouvelles fonctionnalitĂ©s et amĂ©liorations ont Ă©tĂ© apportĂ©es dans cette nouvelle version, parmi lesquelles :

  • Introduction d’une API de plus haut niveau avec les modules tf.layers, tf.loss et tf.metrics
  • CompatibilitĂ© avec Keras, via tf.keras
  • Une promesse de stabilitĂ© de l’API, facilitant les utilisations en production
  • Des optimisations internes pour des performances amplifiĂ©es en termes de temps de calcul via le XLE (Accelerated Linear Algebra)
  • Deux nouvelles APIs expĂ©rimentales: Java & Go
  • Mise Ă  disposition du package sur PyPI, ce qui veut dire qu’il est maintenant possible d’installer TensorFlow via pip install tensorflow
  • Et plein d’autres nouveautĂ©s !

Vous pouvez dès maintenant regarder les vidĂ©os du TensorFlow Dev Summit pour avoir plus de dĂ©tails sur toutes ces innovations et voir des cas d’application.

Catégories: Blog Société

Increased automation in Exocet 2.10

Le blog de Valiantys - jeu, 02/16/2017 - 10:59

After our November Exocet release which enhanced the Confluence page creation feature, we received a tremendous amount of feedback from you – our daily users – who constantly challenge our team of developers to improve Valiantys add-ons. We hear you and are very thankful for your ideas; this time we are taking the brand-new Exocet ...

The post Increased automation in Exocet 2.10 appeared first on Valiantys - Atlassian Platinum Partner.

Catégories: Blog Société

dotSwift 2017

Le 27 Janvier dernier, nous avons été à la dotSwift, conférence se déroulant à Paris autour du « nouveau » langage d’Apple : Swift.
Le cru 2016 nous ayant laissĂ© sur notre faim, nous nous demandions Ă  quoi nous attendre. Au final, nous n’avons pas Ă©tĂ© déçus. Cette demi-journĂ©e Ă©tait intĂ©ressante et est de bon augure sur ce que pourrait donner la dotSwift dans les annĂ©es futures.

Cette année, la conférence a abordé 3 thèmes :

  • Les nouveautĂ©s du langage (avec Swift 3) et ses bonnes pratiques
  • Swift sur les autres plateformes (non Apple) : serveur linux et IoT
  • Retour d’expĂ©rience sur l’utilisation de Swift sur des cas d’usages complexes
Les spécificités du langage

Ce premier thème a abordé les questions récurrentes sur le « protocol-oriented language », les generics et les autres spécificités qu’apportent Swift par rapport à l’Objective-C.

Tout d’abord Marin Todorov, de Realm, nous a parlé de RxSwift. La facilité de chaîner les appels est un point clairement mis en avant par Marin. Il nous a rappelé qu’il est facile de faire du MVVM avec cette technologie et de découper un traitement complexe en plusieurs, plus simples et spécifiques.

Ensuite, Michele Titolo nous a dressé un tableau sur l’état des generics et leur devenir. Au début de son talk, elle nous a présenté ce qui est la principale force des generics : le typage est au final laissé à l’utilisateur de la classe (ou de la librairie).
Pour mieux comprendre comment et quand s’en servir, Michele nous dit tout simplement que la meilleure documentation est : de regarder comment Apple s’en sert dans la « standard library » (sigh).
Elle nous rappelle également qu’il y a un Generic Manifesto et invite toute la communauté des développeurs Swift à y contribuer, et plus largement au langage dans son ensemble.

Enfin, la plupart des lightning talks avait comme sujet une feature du langage :

  • Saul Mora nous rappelle que nous pouvons mĂŞler du Swift avec le cĂ´tĂ© dynamique de l’objective C pour jouer avec le Runtime.
  • Dimitri Dupuis-Latour nous a prĂ©sentĂ© son astuce pour faire des sous-classes de struct : l’utilisation des enums.
  • Greg Lhotellier a contĂ© la “malĂ©diction” de l’hĂ©ritage et montrĂ© qu’il est possible de s’en dĂ©faire… sauf si on fait de l’UIKit.
  • Erica Sadun nous a conseillĂ© d’utiliser les variables shadows lorsqu’il s’agissait d’unwrapper les optionnels : une bonne pratique pour amĂ©liorer la lisibilitĂ© du code.

Notre avis : les lightning talks n’ont pas abordĂ© de grande nouveautĂ© par rapport Ă  ce qu’on pouvait dĂ©jĂ  voir Ă  la WWDC ou dans d’autres confĂ©rences des annĂ©es passĂ©es. Le sujet de Michele a abordĂ© avec un autre regard les generics en ne les prĂ©sentant pas comme nouvelle solution ultime, mais clairement comme une nouvelle corde Ă  notre arc.

Swift en dehors d’Apple

Ian Partridge, qui travaille chez IBM sur le framework Kitura, nous a partagé les difficultés rencontrées sur l’utilisation du langage d’Apple sur Linux. Le principal frein au développement est bien entendu le portage de Foundation et de libdispatch sur les distributions Linux. Ces dernières étant écrites en Objective-C sur les architectures Darwin, elles n’existent pas telles quelles ailleurs.
Un des progrès que voyait Ian au développement de Swift sur serveur est la possibilité laissée aux équipes Front de développer leur propre middleware dans le langage qu’elles maîtrisent :

  • Front web : javascript (avec nodejs pour le back)
  • iOS : swift avec Kitura comme exemple de framework pour le dĂ©veloppement du back

Ensuite, Bernet Holland nous a parlé de l’usage dans le langage dans l’IoT. Il met en garde ceux qui veulent utiliser cette technologie sur les objets connectés car le simulateur ne peut plus être utilisé. Ainsi, il préconise de créer son propre simulateur d’appareil et de mettre en place une couche d’abstraction avec les drivers.
Sa dernière recommandation a été d’insister sur les tests unitaires : indispensables dans le monde du hardware.

James Duncan Davison, architecte chez Microsoft et qui clôturait la conférence, comparait la création de Swift et ses possibilités à celle de Java en son temps. En effet, pour lui, la meilleure contribution d’Apple à l’Open Source est la llvm.
Il fait le parallèle entre l’usage de la llvm et le meilleur de Java : sa VM et son bytecode. En fin de compte, Swift est indépendant de la plateforme sur laquelle il tourne (n.d.r. : enfin, presque… bientôt…).

Notre avis : Sans tomber dans les clichés où Swift pourrait être vu comme génial, même sur serveur, les conférenciers ont eu un discours avec du recul et objectif sur ce thème. Mais le langage porte encore un certain nombre d’espérances et possibilités, notamment grâce aux outils sur lesquels il est construit : la llvm.

Usage concret de Swift

Drew McCormack, qui travaille aujourd’hui pour Sketch, nous a exposĂ© la problĂ©matique de sauvegarde qu’ils rencontrent sur le produit. Il faut savoir qu’il est nĂ©cessaire pour un outil comme celui-ci de faire des sauvegardes incrĂ©mentales sur des informations volumineuses. Pour l’utilisateur, ĂŞtre capable en un clic de revenir en arrière et d’effacer sa dernière modification est primordial.
Pour pouvoir simplifier la sauvegarde, la structure de donnĂ©es mise en place est celle d’un arbre (binaire ?!). Cependant, pour s’affranchir des problèmes de concurrence, cet arbre est immutable. D’oĂą la problĂ©matique suivante de la taille des donnĂ©es Ă  sauvegarder lorsqu’on souhaite passer Ă  une version suivante de l’arbre de donnĂ©es : tout recopier serait trop volumineux en temps et en consommation mĂ©moire. La solution que Drew a mise en place est celle de dĂ©composer la sauvegarde en Ă©lĂ©ments plus petits : seuls les fils et les parents directs d’un nĹ“ud modifiĂ© sont sauvegardĂ©s, et non les nĹ“uds de mĂŞme niveau.

Puis, Károly Lőrentey nous a parlé d’algorithmie et de la façon d’optimiser une structure gérant une liste d’éléments qui est performante lors des recherches. Son but était de montrer le processus de réflexion pour optimiser les Array actuels, tout en gardant une écriture assez simple.
Au final, sa solution a été d’écrire en Swift l’algorithme d’un BTree. Son code est disponible sur Github et il encourage quiconque ayant des propositions d’amélioration de son code à lui faire un retour.

Notre avis : Ces retours d’expérience ne sont pas spécifiques à Swift. Cependant, ils permettent de partager une maturité d’utilisation et de mise en pratique de cet outil jeune dans des cas divers et complexes.

Le fin mot

La meilleure conclusion de cette demi-journée pourrait paraphraser la conférence de Roy Marmelstein.
Il nous a rappelé que Swift, comme toute technologie hype, n’est en aucun cas une « silver bullet ». Tous les talks que nous venions de voir à propos des nouveautés sur le langage sont intéressantes (protocol oriented, Rx, …) et donnent envie de jouer avec. Cependant, elles ne répondent pas par magie à tous les problèmes et ne se suffisent pas à elles seules pour nous donner la solution ultime.
Roy confia même lors de l’interview de Daniel qu’il ne se sert pas aujourd’hui de Swift pour des projets en production…

Swift est le sens de l’histoire, car lorsque Apple propose une technologie, nous ne sommes en rĂ©alitĂ© qu’à quelques annĂ©es avant qu’il l’impose Ă  tout son Ă©cosystème. Les concepts apportĂ©s par le langage rĂ©pondent Ă  de nouveaux besoins, comme la plupart des autres “nouveaux” langages (i.e. Kotlin, Clojure, Scala, …). Cependant aucun n’est un couteau suisse magique qui permet une meilleure productivitĂ© et la rĂ©solution de tous les problèmes (sans une connaissance approfondie des concepts qu’ils apportent).

Un autre maître mot est revenu tout au long de la conférence : n’hésitez pas à contribuer au langage. Il est ouvert et ne demande qu’à s’améliorer avec les apports de chacun d’entre nous.

Articles suggested :

  1. Tour d’horizon du framework EventKit sur iOS
  2. Droidcon Londres 2011
  3. Code iOS : fini de jouer !

Catégories: Blog Société

REX workshop Big Data chez AWS

Retour sur les services permettant de rĂ©pondre aux cas d’utilisation big data au travers des solutions AWS. En dĂ©cembre dernier, j’ai participĂ© dans les locaux d’Amazon France Ă  Clichy Ă  un workshop dĂ©diĂ© Ă  l’utilisation des services Big Data du leader du cloud public. L’objectif de cette journĂ©e : dĂ©couvrir les services permettant de rĂ©pondre aux cas d’utilisation big data au travers des solutions AWS.

On ne présente plus le cloud AWS et la constellation de services qui l’accompagne. L’objet de cet article est de faire un bilan de cette journée et de le comparer à mon expérience du Big Data, principalement on-premise.

Cette journĂ©e Ă©tait divisĂ©e en 2 parties : une prĂ©sentation des diffĂ©rents services, puis des workshops faisant intervenir ces dits services. Au programme: de l’injection, du stockage, du traitement, de la visualisation de donnĂ©es sur des solutions managĂ©es AWS, et de manière transverse Ă  ces Ă©tapes, j’aborderai l’aspect sĂ©curitĂ©. La figure ci-dessous prĂ©sente les principaux thèmes abordĂ©s Ă  savoir la mise en place d’un « pipeline Big Data »: big data AWS REX

Amazon, de par ses solutions, couvre pour nous les aspects suivants :

  • Maintenance : L’utilisateur ne se soucie pas des Data Centers, des serveurs, des disques, et des Ă©quipements physiques dont la maintenance est assurĂ©e par AWS.
  • ÉlasticitĂ© : Les services sont Ă©lastiques et scalables pour s’adapter Ă  une demande diffĂ©rente et flexible.
  • Extensible : Il est possible de brancher des solutions techniques existantes sans passer forcĂ©ment par les services AWS.
  • SĂ©curitĂ© : L’authentification, les autorisations, l’audit, en somme une sĂ©curitĂ© forte est gĂ©rĂ©e facilement pour tous les services.

À chaque grande phase de travail sur du Big Data vont correspondre des outils AWS dédiés, que nous allons maintenant présenter.

Injection 

Toute mise en place d’architecture Big Data sous entend l’injection et la collecte de donnĂ©es au prĂ©alable. Ce paragraphe passe en revue les diffĂ©rents composants disponibles.

Snowball

Snowball permet de transfĂ©rer un gros volume de donnĂ©es vers les Data Centers d’Amazon dans S3 de manière sĂ©curisĂ©e, soit par valise commandĂ©e par La Poste (volume jusqu’Ă  100 To), soit via la venue d’un camion (volume jusqu’Ă  100 Po). Ces solutions peuvent s’avĂ©rer utiles si les donnĂ©es ne bougent pas Ă©normĂ©ment entre le moment oĂą on les collecte et le moment oĂą elles sont intĂ©grĂ©es.

Glue

Nouveau service pour l’instant indisponible en Europe, Glue est un ETL managĂ© par AWS. Il permettra d’avoir accès aux fonctionnalitĂ©s traditionnelles d’un ETL dans le cloud AWS.

Direct Connect

Direct Connect permet l’interfaçage de votre Data Center avec AWS sur un lien rĂ©seau Ă  10Gb/s. 

Fluentd & co

Il existe un nombre important d’outils capables de collecter des donnĂ©es pour les stocker ensuite dans S3 ou les traiter ensuite en temps rĂ©el. Pour ne citer qu’eux :

  • Fluentd dispose d’un plugin pour stocker directement dans S3.
  • Flume dispose d’un Sink S3.
  • LogStash, Log4j
  • Kafka n’est pas directement disponible en tant que service. Il est possible de dĂ©marrer des instances EC2 remplissant ce service et de produire et consommer Kafka dans le cloud AWS.
  • Kinesis est un service managĂ© AWS que nous aborderons plus en dĂ©tail dans la suite de l’article

Des services managés sont également disponibles pour collecter des données de type IoT tout aussi facilement.

Stockage de données

Seconde Ă©tape dans la chaĂ®ne de traitements d’une architecture Big Data : le stockage des donnĂ©es. Ce paragraphe prĂ©sente quelques unes des solutions possibles pour remplir cette mission.

S3

La clef de voĂ»te d’AWS ! Simple Storage Service, le premier service ouvert chez AWS en 2006, est le pivot du fournisseur de cloud. Les services AWS sont hĂ©bergĂ©s au sein de rĂ©gions qui sont elles mĂŞmes dĂ©coupĂ©es en zones de disponibilitĂ© (AZ).  La plupart des services s’interfacent nativement avec ce service de stockage qui offre une rĂ©plication 2 fois sur chaque zone de disponibilitĂ©. Les AZ sont reliĂ©es entre elles Ă  très haut dĂ©bit et sont gĂ©ographiquement sur des sites distincts. Au final, la donnĂ©e est rĂ©pliquĂ©e 6 fois pour un coĂ»t de stockage très faible : seulement 2,5 cts $ du Go par mois. Certaines rĂ©gions n’ouvrent que deux AZ aux utilisateurs mais dans la rĂ©alitĂ© des faits AWS dispose toujours de trois AZ par rĂ©gion.

La figure ci-dessus présente les trois AZ par région.

big data AWS REX

 

Le rôle de ce service est de stocker à faible coût des fichiers avec une garantie à  99,999999999 % de ne pas perdre votre fichier et une disponibilité du service à 99,99 %.

Le principal avantage vis Ă  vis d’une distribution Hadoop qui offre un service comparable avec HDFS est qu’il n’est pas nĂ©cessaire de disposer d’un cluster Hadoop opĂ©rationnel pour garantir son stockage avec S3. Le traitement des donnĂ©es est vraiment indĂ©pendant du stockage. Ce dernier constitue le Data Lake dans lequel puisent tous les outils.

Glacier

Glacier offre la gestion des sauvegardes Ă  long terme. A titre d’exemple, il est possible de gĂ©rer la sauvegarde d’une base de donnĂ©es.

Attention tout de même, le temps de récupération des données est de 3 à 5 h. Cette durée tend à diminuer dans les nouvelles versions de ce service.

RRS

RRS est un service de stockage Ă  redondance rĂ©duite qui constitue une option de stockage moins chère que S3. Ce type de stockage s’adresse Ă  des donnĂ©es re-constructibles. On considère comme donnĂ©e re-constructible toute donnĂ©e qui n’est pas la donnĂ©e brute et que l’on peut reconstruire sur demande.

Dynamo DB Base de donnĂ©es NoSQL scalable issue de la publication Google Big Table, Dynamo DB offre un accès rapide (milliseconde) aux donnĂ©es qu’elle hĂ©berge. Elle remplit le mĂŞme rĂ´le qu’un outil tel que HBase et est particulièrement adaptĂ©e pour des très gros jeux de donnĂ©es (Milliards d’enregistrements). On peut utiliser Dynamo DB pour stocker ses KPI calculĂ©s. Traitement de la donnĂ©e

Après avoir intĂ©grĂ© nos donnĂ©es, nous pouvons les traiter Ă  l’aide d’un ensemble de services que je dĂ©taille dans ce paragraphe.

Redshift

RedShift est une base de donnĂ©es relationnelle orientĂ©e colonne. Elle est particulièrement efficace pour l’entreposage de donnĂ©es. Cette base de donnĂ©es de type MPP, accessible via JDBC et ODBC, est distribuĂ©e. Les traitements sont donc rĂ©partis sur un nombre nĹ“uds ajustable. L’architecture est classique pour du distribuĂ© : un nĹ“ud master et des nĹ“uds slaves qui traitent des morceaux (slices) du jeu de donnĂ©es en parallèle. Le nombre de slices par serveur est fonction du nombre de cĹ“urs processeur disponibles. Un slice (un conteneur pour faire un parallèle avec YARN) est composĂ© de CPU, RAM et disque.

Deux profils de facturation sont proposés pour Redshift

  • « stockage » : stockage de 2 To Ă  2 Po
  • « compute » : stockage de 160 Go Ă  326 To

Redshift supporte de nombreux formats de sĂ©rialisation (AVRO, …), de la compression ainsi que l’interfaçage simple avec S3 et DynamoDB.

Quelques limitations cependant : 

  • Redshift ne garantit pas l’”ACIDité” des transactions, ce qui est logique pour du distribuĂ©.
  • Comme beaucoup de base de donnĂ©es distribuĂ©es, la suppression des donnĂ©es ne se fait pas lors de l’instruction de suppression mais uniquement lors d’une opĂ©ration d’administration qui force la suppression des donnĂ©es marquĂ©es Ă  supprimer.
  • Il faut dĂ©finir une clef en fonction du type d’accès aux donnĂ©es suivant trois modes :
    • Par slice :  une mĂŞme clef sera toujours traitĂ©e par le mĂŞme slice.
    • Round robin :  chaque serveur reçoit Ă  tour de rĂ´le une clef.
    • DistribuĂ©e : utile pour des tables de rĂ©fĂ©rentiel. Tous les serveurs conservent une copie de la donnĂ©e
  • Une mauvaise dĂ©finition de la clef, de mĂŞme qu’un mauvais choix de profil de facturation, aura un impact sur les performances et sur le coĂ»t de facturation. On gère exactement les mĂŞmes problĂ©matiques de distribution de la clef lorsqu’on dĂ©finit le schĂ©ma d’une table HBase. 
  • RedShift ne supporte pas plus de 100 utilisateurs simultanĂ©s.
Aurora

Aurora propose la mise en place de bases de données relationnelles MySQL ou PostgreSQL très haute performance.

Presto

Outil initialement développé chez Facebook, Presto est un moteur SQL Open Source pouvant gérer des volumes de données allant jusqu’au pétaoctet. Il est disponible au sein de la distribution Hadoop d’Amazon Vanilla et par conséquent embarqué lors de l’instanciation de cluster Hadoop EMR (voir ci-dessous).

Pour le catĂ©goriser au regard des distributions Hadoop du marchĂ©, Presto est sur le mĂŞme cĹ“ur de marchĂ© que Drill et Impala. Comme Impala, il s’interface avec le Metastore de Hive pour y retrouver les structures de donnĂ©es et supporte sa sĂ©mantique. Il est possible de crĂ©er des tables Ă  partir de donnĂ©es disponibles sur S3 Ă  la manière d’Impala et Drill (schema on read).

Athena est un nouveau service qui n’est pas encore disponible en Europe et annoncĂ© lors de l’évĂ©nement AWS Reinvent. Il s’agit en rĂ©alitĂ© d’un Presto managĂ© par AWS. Son principal avantage par rapport Ă  un Presto mis en route dans un EMR est son mode de facturation Ă  la requĂŞte.

EMR

Elastic Map Reduce permet d’instancier des clusters Hadoop Ă  la volĂ©e via la ligne de commande ou depuis l’interface en ligne. C’est en rĂ©sumĂ© du Hadoop As A Service. Il repose sur la distribution Vanilla d’Amazon actuellement en version 5.2 embarquant les services Presto, Hive, Pig, Hbase, Hue, HDFS, Flink, Ganglia et YARN.

Il est possible de ne pas utiliser HDFS du tout lors de l’instanciation du cluster.

EMR ne propose pas de haute disponibilitĂ© du Namenode/Resource Manager. Ceci est dĂ» au fait que l’on part du principe que la totalitĂ© du cluster est reconstructible rapidement. Dans cette mĂŞme optique, il est possible de rĂ©server des instances de type spot pour limiter le coĂ»t de l’instanciation du cluster. Un cours de l’instance spot est Ă©tabli en permanence par Amazon et en fonction d’un prix prĂ©-enregistrĂ© que l’on est prĂŞt Ă  mettre, on peut obtenir ou non ces instances.

Amazon ML

Amazon Machine Learning est un service permettant d’utiliser un nombre limitĂ© d’algorithmes de Machine Learning (uniquement du supervisĂ©) :

  • Classification binaire
  • Classification multi-critères
  • RĂ©gression et prĂ©vision

Ce service permet d’assister le Data Scientist dans son processus d’élaboration d’un modèle. Ce modèle peut ĂŞtre entraĂ®nĂ© sur de très gros jeux de donnĂ©es hĂ©bergĂ©s Ă©galement sur AWS (S3, Redshift, …) et ensuite ĂŞtre appliquĂ© en mode batch ou en temps rĂ©el (Kinesis).

Ă€ titre personnel, je pense qu’il peut servir pour dĂ©buter dans le Machine Learning, mais que Spark est bien plus fourni en algorithmes.

EC2

C’est le service de fourniture de serveurs avec un ensemble de systèmes d’exploitation (Linux, Windows…) au catalogue, un ensemble de types d’instance adaptĂ© Ă  des usages diffĂ©rents (t1, t2…). En quelques clics ou via la ligne de commande, il est possible d’instancier un ensemble de serveurs exĂ©cutant une image de système d’exploitation (AMI) prĂ©-disponible en ligne.

Pour faire le parallèle avec les distribution Hadoop du marché, il est possible d’utiliser la distribution Hadoop de son choix et de l’installer sur des instances EC2. Les acteurs majeurs du secteur (Cloudera, Mapr et HortonWorks) proposent des outils pour automatiser cette installation à base d’instance EC2.

Ces outils pour piloter la crĂ©ation de votre cluster Hadoop Ă  base d’instances EC2 sont puissants (Cloudera Director, ….) mais rien n’empĂŞche d’utiliser un outil de type Ansible pour installer totalement son cluster Hadoop. Dans ces conditions, on disposera de son infrastructure big data dans le cloud as code.

Pour finir, AWS propose une version managée de la distribution Mapr.

Kinesis et ses déclinaisons

Kinesis est l’outil de gestion des événements de type streaming proposé par Amazon. À titre de comparaison, il remplit le même rôle que Kafka. Il permet entre autres comme lui de découpler la production de la consommation d’événements arrivant au fil de l’eau.

Comme Kafka, il est scalable et dĂ©coupĂ© en shards correspondant aux partitions de topic sur Kafka. La facturation se fait autour du nombre de shards, et c’est un service dont l’Ă©lasticitĂ© peut ĂŞtre managĂ©e facilement. Il se dĂ©cline en 3 versions :

  • Kinesis stream permet de traiter le flow d’évĂ©nements 
  • Kinesis Firehose peut rĂ©aliser des traitements de type batch sur le flux d’évĂ©nements (par exemple : Ă©crire sur S3 un ensemble d’évĂ©nements, indexer dans Elastic Search les Ă©vĂ©nements ou les stocker dans RedShift). Il est possible d’encrypter et de compresser le flux d’Ă©vĂ©nements traitĂ©s.
  • Kinesis Analytics permet de traiter les Ă©vĂ©nements temps rĂ©el via SQL avant de les rĂ©injecter.

La figure ci-dessous présente quelques outils capables de produire/consommer du Kinesis.

big data AWS REX

 

Comme on peut le constater, Kinesis devient un outil central si l’on veut ĂŞtre en mesure de traiter de la donnĂ©e chaude (temps rĂ©el) au sein de son architecture Big Data AWS.

Lambda

Calcul sans serveur, Lambda supporte quatre langages de programmation (Javascript, Java, Csharp et Python) et s’interface très facilement avec les autres services pour traiter sans avoir besoin de dĂ©marrer un serveur.

Sécurité

Enjeu vital lorsque l’on met ses donnĂ©es et ses traitements dans le cloud, la sĂ©curitĂ© fait partie intĂ©grante de l’offre de services. L’offre de sĂ©curitĂ© dĂ©passe le pĂ©rimètre de ce retour d’expĂ©rience mais l’offre proposĂ©e par AWS est complète.

Encryption & KMS

Toute communication inter-service peut être encryptée à travers de SSL/TLS.

Une centralisation des clefs scalable est disponible (KMS). Comme pour les autres services, il est possible d’utiliser un outil tiers pour gĂ©rer ses clefs.

IAM

Service incontournable chez AWS, il permet de définir des rôles RBAC et des autorisations pour les différents services de AWS. Grâce à lui, on peut gérer finement l’accès à nos services. À titre de comparaison avec les distributions Hadoop du marché, IAM remplit le même rôle que Sentry ou Ranger.

Consommation

Pour terminer, notre chaîne de traitement de la donnée, je vais aborder dans ce paragraphe quelques solutions de restitution.

QuickSight

QuickSight est un outil de Data Visualisation. Les données sont stockées dans son moteur in-memory Spice. Les outils de Data Visualisation (Tableau Software, Qlikview…) peuvent s’interfacer avec lui.

 Inconvénients :

  •  Les donnĂ©es transitent dans la base in memory limitĂ©e en taille de l’outil.
  •  La bibliothèque de fonctions de Data Visualisation de QuickSight est pour l’instant limitĂ©e, ceci impose d’utiliser en plus une solution de Data Visualisation plus classique. 
ES

Il s’agit d’un Elastic Search + Kibana (que l’on peut coupler avec Logstash) managĂ© par AWS. Grâce Ă  ce service, il est possible de rĂ©aliser des recherches full text sur des documents indexĂ©s au prĂ©alable. La restitution et l’exploitation des documents indexĂ©s peut se faire via Kibana. AWS, au travers de CloudWatch, nous permet de gĂ©rer facilement l’Ă©lasticitĂ© du cluster Elastic Search pour adapter sa taille en fonction des mĂ©triques observĂ©es.

Autres solutions

Il existe pour finir des dizaines de combinaisons possibles pour sortir la donnĂ©e issue de nos traitements « big data » vers d’autres solutions managĂ©es AWS ou tout simplement vers un SI on-premise pour rĂ©aliser des analyses sur des plus faibles volumes par exemple.

Conclusion 

L’écosystème Hadoop est riche dans chacune des distributions (Cloudera, MapR, HortonWorks, IBM Big Insight, Oracle Big Data Appliance, Vanilla…). Il devient encore plus riche avec les services des providers de Cloud public et particulièrement AWS qui est en pointe d’après Gartner et son magic quadran.

Durant cette journĂ©e dense, j’ai pu constater la facilitĂ© et la rapiditĂ© de mise en place de solutions Big Data utilisant les services dĂ©taillĂ©s ci-dessus.

On retiendra que l’on peut toujours instancier son cluster dans la distribution de son choix à base d’instances EC2. La flexibilité du modèle Amazon permet soit d’adopter pleinement les solutions AWS avec une réversbilité maîtrisée ou soit de démarrer lentement la transition vers le Cloud en conservant ses solutions existantes tournant sur des instances EC2. Il faut néanmoins une connaissance approfondie des services et de leur pricing pour envisager une utilisation maîtrisée des différents composants. 

Catégories: Blog Société

Lancement de IOT-EE

Iot-ee, cabinet de conseil dans l'Internet des Objets

L’internet des objets arrive à grand pas. Bientôt, chaque chose (thing) sera connectée. Afin d’accompagner cette évolution sociétale, et forts d’expériences réussies chez nos clients ces 3 dernières années, nous sommes fiers d’annoncer IOT-EE, un cabinet de conseil spécialisé dans l’Internet des Objets.

Grâce à nos compétences reconnues et à un réseau de partenaires nous permettant de couvrir l’ensemble de la chaîne de valeur, nous accompagnons nos clients dans les différentes phases de leur stratégie IoT :

Dès les phases amont du projet, nous analysons et imaginons votre objet connecté et son écosystème, grâce à une approche mêlant le LeanStartup et le Design Thinking.

Grâce à nos ateliers d’eXtreme Architecture, nous concevons un système robuste, dans les règles de l’Art, apte à adresser tous les enjeux technologiques et opérationnels.

Grâce à notre ADN Agile, nous concevons la solution en mode MVP (Minimal Viable Product) puis la phase d’industrialisation, en nous appuyant sur des équipes de spécialistes allant de BigData aux applications mobiles natives,  en passant par les technologies Cloud et Web.

Venez faire notre connaissance à l’occasion de deux évènements :

  • IOT-WORLD les 22 et 23 Mars 2017 Ă  Porte de Versailles (s’inscrire ici).
  • THINGS DAY, Ă©vènement conjointement organisĂ© par IOT-EE et Actility en Avril 2017 Ă  l’Arpège Victoire (stay tuned).

Techtrends Iot-ee
Si vous voulez en savoir plus, visitez le site de IOT-EE.

Pour connaître nos points de vue, téléchargez notre TechTrends IoT en cliquant ici.

Pour nous contacter :

IOT-EE SAS
156 bd Haussmann, 75008 Paris
01 53 89 99 99
contact@iot-ee.com

Catégories: Blog Société

Cheerleader Effect : ĂŞtre meilleur signifie-t-il ĂŞtre parfait ?

Quand on est Scrum Master d’une Ă©quipe qui commence Ă  monter en puissance et Ă  bien fonctionner, on en vient Ă  ĂŞtre naturellement satisfait, notamment si les autres Ă©quipes n’apparaissent pas comme aussi performantes que la nĂ´tre. Si ce sentiment gĂ©nère de la fiertĂ© parmi les membres de l’Ă©quipe, il peut aussi constituer un obstacle […]
Catégories: Blog Société

How to import issues into JIRA

Le blog de Valiantys - mar, 02/14/2017 - 15:00

The JIRA Importers add-on not only makes JIRA compatibile with applications such as Bugzilla or Mantis, it also enables you to import CSV files. Easy to use, it turns out to be quite handy when it comes to creating and/or modifying JIRA issues from a file. In this blog, I’ll present the CSV feature and some best ...

The post How to import issues into JIRA appeared first on Valiantys - Atlassian Platinum Partner.

Catégories: Blog Société

jeudi 26 avril 2017 - Suivez le lapin blanc ! Exploration au coeur de la JVM

JUG Toulouse, Groupe d'utilisateur Java - mar, 02/14/2017 - 01:00

Adresse : A définir

Pour cette nouvelle soirée du Java User Group Toulousain, nous allons rentrer dans les entrailles de notre plateforme préférée avec Sylvain Wallez (@bluxte) aux commandes.

Pour le programme plus en détails, référez-vous aux informations de l’événement meetup.

Catégories: Association

jeudi 23 mars 2017 - Programmation concurrente dans l'univers Java

JUG Toulouse, Groupe d'utilisateur Java - mar, 02/14/2017 - 01:00

Adresse : A définir

Cet évènement sera l’occasion de découvrir les solutions de programmation concurrente dans l’univers Java , des plus simples telles que Thread, synchronized ou Executor, au plus avancées comme StampedLock, fork/join ou CompletableFuture.

Pour le programme plus en détails, référez-vous aux informations de l’événement meetup.

Catégories: Association

jeudi 2 mars 2017 - Eclipse DemoCamp

JUG Toulouse, Groupe d'utilisateur Java - mar, 02/14/2017 - 01:00

Adresse : A définir

Cet évènement sera l’occasion de découvrir les dernières nouveautés autour d’Eclipse. Venez échanger avec d’autres utilisateurs et rencontrer les contributeurs Eclipse.

Pour le programme plus en détails, référez-vous aux informations de l’événement meetup.

Catégories: Association

#PortraitDeCDO – Guénaëlle Gault – Kantar

#PortraitDeCDO – GuenaĂ«lle Gault – Kantar

DĂ©couvrez pour le septième #PortraitDeCDO, avec le portrait de GuĂ©naĂ«lle Gault Global Chief Digital Officer Kantar Public Affairs & CDO France Kantar Consumer Insights. Vous allez pouvoir dĂ©couvrir les enjeux du numĂ©rique pour son entreprise, ses contraintes au quotidien ou encore son rĂ´le au sein de sa sociĂ©tĂ© pour faire bouger les lignes du digital. Des insights prĂ©cieux que vous pourrez comparer au fur et Ă  mesure que les portraits s’Ă©graineront dans les semaines Ă  venir.

 

kantar

En une phrase, comment définiriez-vous la notion de transformation digitale ?
La transformation digitale est la nécessité pour toute entreprise ou institution née au 20ème siècle de s’adapter à la complète révolution de son écosystème qui a lieu en ce début de 21ème. Révolution qui a tout à la fois procédé et entraîné des transformations technologiques, économiques et sociétales sans précédent.

Comment décririez-vous votre rôle de CDO ?
Il s’agit précisément de piloter cette transformation. Repartir de l’entreprise, revenir à sa vocation mais totalement repenser la façon dont elle l’exerce. Donc repenser aussi bien son organisation et ses métiers que son offre et son positionnement sur le marché.

Quelles difficultés rencontrez-vous au quotidien ?
La principale difficulté réside dans le fait qu’il ne s’agit pas tant d’implémenter de nouvelles techniques ou technologies et acquérir les nouvelles compétences qui y sont associées que de fondamentalement transformer la culture. En l’occurrence je crois que le plus efficace est de d’abord changer les comportements qui ensuite et en rebond feront évoluer les mentalités. Mais c’est long et donc parfois frustrant.

Pensez-vous qu’il faille être technophile pour exercer le métier de CDO ?
Ça en fait partie mais il faut surtout être curieux et aimer apprendre sans cesse. En tous cas il faut être phobique de rien ;-)

Pensez-vous que CDO est un métier d’avenir ?
Non, c’est l’étape 1.0 de la transformation digitale. Dans 2 ou 3 ans, le métier s’éclatera probablement en plusieurs autres fonctions plus spécifiques et expertes en même temps que la vision et stratégie globale du leadership en sera plus naturellement imprégnée.

Quelle est pour vous la prochaine innovation qui risque de chambouler votre secteur d’activité ?
A court terme les DMP et ce qu’on en fait, à moyen terme, la réalité virtuelle et la blockchain

Quels sont les enjeux de digitalisation de votre entreprise à l’heure actuelle ?
Passer de la small data dont nous étions les producteurs à la smart data qui aide véritablement nos clients à prendre les bonnes décisions, sachant que la big data n’est rien si elle n’est pas raffinée, agrégée, modelisée.

Citez-moi une marque/entreprise qui, pour vous, a clairement réussi à adresser les enjeux du digital ?
Même si on peut trouver pas mal d’exemples, idées ou bonnes pratiques dans de nombreuses entreprises, pour moi il est encore prématuré de répondre à cette question avant quelques années. Et j’aimerais d’ailleurs pouvoir alors citer un Etat plus qu’une entreprise.

Sans contrainte, vous avez la possibilité de commencer 3 projets de transformation dans votre entreprise : quels seraient-ils ?
Joker ! :) La transformation digitale est précisément le fait de travailler sous contrainte et c’est de là aussi que vient la créativité.

Quel projet de transformation vous semble le plus risqué et pourquoi ? Celui qui apporterait le plus de valeur et pourquoi ?
La valeur c’est l’humain, c’est là qu’il y a le plus de risque et c’est là aussi qu’il y a le plus de valeur. Dans un monde qui évolue très vite et puissamment, soutenir et développer l’employabilité des individus est pour moi le plus challengeant.

Quel est l’impact de la transformation sur la culture et l’organisation de votre entreprise ?
Comme dĂ©jĂ  Ă©voquĂ©, la culture est un enjeu central. Il en va de mĂŞme de l’organisation. Les institutions privĂ©es ou publiques issues du siècle dernier sont organisĂ©es en hauts et en centres, très hiĂ©rarchiques, stables, solides. Mais avec le digital – entre autres –  le monde est de plus en plus plat et prĂ©caire et, Ă©videmment, la souplesse, l’adaptabilitĂ©, l’empathie et la curiositĂ© doivent transformer les organisations et la façon dont on y Ă©volue. Le comportement compte dĂ©sormais autant que l’expĂ©rience.

Demain, qu’est-ce qui vous fera dire que votre entreprise a réussi sa transformation ?
On ne parlera plus de digital.

Quel livre vous a récemment le plus influencé ?
Mindfulness Meditations in Everyday Life de Jon Kabat-Zinn ;-)

LinkedIn : https://linkedin.com/in/guénaëlle-gault-891a1232
Twitter : https://twitter.com/LaGuirlande
Site Internet : http://www.kantar.com

#PortraitDeCDO – GuĂ©naĂ«lle Gault – Kantar from OCTO Technology

Retrouvez les derniers #PortraitDeCDO

#PortraitDeCDO – JĂ©rĂ©my Giacomini – Foncia from OCTO Technology

#PortraitDeCDO – Jueliette De Maupeou – Total from OCTO Technology

#PortraitDeCDO – Thierry Picard – Pierre Fabre from OCTO Technology

Catégories: Blog Société

User Story… L’essentiel en 5 images

Qualitystreet - Jean Claude GROSJEAN - lun, 02/13/2017 - 00:04

En direct de mes sessions de perfectionnement destinĂ©es aux Product Owners… DÉFINITION 3C INVEST USER VOICE STRATÉGIES DE DÉCOUPAGE Pour plus de dĂ©tails sur le contenu de chaque image, vous trouverez votre bonheur dans cet article : « User stories: Back to Basics » D’autres articles pour nos chers PO: Coaching de Product Owner Product Owner: Back…

The post User Story… L’essentiel en 5 images appeared first on QualityStreet - Blog Agile depuis 2007.

Catégories: Blog Individuel

[DDDEU 2017] Retour sur le workshop Essential DDD de Paul Rayner

En amont de la confĂ©rence DDDEU 2017, SOAT en compagnie d’une cinquantaine de personnes, a eu l’opportunitĂ© de suivre l’atelier “Essential DDD” de Paul Rayner Et oui SOAT y Ă©tait !! Nous allons vous partager nos impressions sur cet atelier. Le contenu : Cet atelier s’est dĂ©roulĂ© sur deux jours, oĂą une excellente ambiance a […]
Catégories: Blog Société

[Session mensuelle] SOA / Microservices / Urbanisation / Docker / REST / DevOps et feature teams : tout en production !

Agile Nantes - ven, 02/10/2017 - 15:22
RĂ©sumĂ© Cette confĂ©rence est un retour d’expĂ©rience sur trois annĂ©es passĂ©es par un Ă©diteur logiciel Ă  dĂ©couper son application monolithique en services urbanisĂ©s, Ă  les coder en REST et Ă  la dĂ©ployer chez des clients et dans le cloud avec Docker. Cette approche s’est accompagnĂ©e d’une refonte totale du mode de fonctionnement en Ă©quipes agiles [...]
Catégories: Association

Partagez la connaissance

Partagez BlogsdeDeveloppeurs.com sur les réseaux sociaux