Autoblog de korben.info

Ce site n'est pas le site officiel de korben.info
C'est un blog automatisé qui réplique les articles de korben.info

Une faille dans Firefox permet de trouver l’identité réelle d’utilisateurs Tor

Wed, 30 Nov 2016 09:06:31 +0000 - (source)

Attention, si vous utilisez Tor avec le navigateur Firefox (Le fameux Tor Browser).

Un admin du service de mail Sigaint a publié sur la mailing list de Tor, un exploit utilisé activement en ce moment, qui permet d'exécuter du code malicieux sur un Windows.

L'exploit composé d'un fichier HTML et d'un fichier CSS permet d'obtenir un accès direct à kernel32.dll grâce à une vulnérabilité dans la gestion de la mémoire de Firefox. Cela peut permettre de faire fuiter l'identité réelle d'utilisateurs de Tor.

tortalk

L'exploit découvert envoyait des infos vers une machine OVH qui est actuellement hors service. La dernière fois qu'un exploit de ce genre a été découvert, c'était en 2013. Celui-ci était le travail du FBI et avait permis de démasquer des pédophiles utilisant Tor. Même si le principe de fonctionnement est proche, il est impossible pour le moment de déterminer l'origine de cet exploit.

La balle est donc maintenant dans le camp de Mozilla qui doit patcher Firefox, puis dans celui de Tor qui devra mettre à jour son Tor Browser pour prendre en compte la version corrigée.

Source

Cet article merveilleux et sans aucun égal intitulé : Une faille dans Firefox permet de trouver l’identité réelle d’utilisateurs Tor ; a été publié sur Korben, le seul site qui t'aime plus fort que tes parents.


Installer et utiliser s3cmd pour gérer Amazon S3 en ligne de commande

Wed, 30 Nov 2016 07:26:41 +0000 - (source)

Ce week end, je vous ai expliqué comment balancer vos backups automatiquement sur Amazon S3, mais si voulez faire certaines choses manuellement, il existe l'outil parfait pour ça : S3cmd.

S3cmd, c'est tout simplement une interface en ligne de commande pour piloter son Amazon S3.

Pour l'installer (ubuntu / debian), faites (sinon, les binaires sont là) :

sudo apt-get s3cmd

Ensuite, il faut le configurer :

s3cmd --configure

Suivez les instructions. En gros, vous avez besoin de votre clé d'accès et de votre clé secrète S3. Pour savoir comment les récupérer, je vous invite à lire la partie sur IAM dans ce tuto.

s3config

Le processus de config vous demandera aussi un mot de passe pour chiffrer les fichiers envoyés vers le S3. Ce n'est pas obligatoire, à vous de voir. Par contre, je vous recommande vivement d'accepter l'utilisation du protocole HTTPS ("Use HTTPS protocol : Yes") pour que les fichiers soient transmis au serveur S3 avec un minimum de sécurité. Si ce sont des fichiers publics, vous pouvez passer en HTTP, ce sera un peu plus rapide.

Voilà, maintenant que c'est configuré, on va pouvoir jouer. Première étape, lister les buckets présents sur Amazon S3 :

s3cmd ls

Ensuite, pour créer un nouveau bucket :

s3cmd mb s3://monbucket

Maintenant on va mettre des trucs dedans avec le paramètre put :

s3cmd put fichier.jpg s3://monbucket

Pour y balancer carrément un répertoire, il faut utiliser le paramètre -r

s3cmd put -r monrepertoire s3://monbucket

Attention, petite subtilité, si vous voulez uploader uniquement le contenu de ce répertoire (et pas le répertoire lui-même), pensez à mettre un / après le nom :

s3cmd put -r monrepertoire/ s3://monbucket

Maintenant pour vérifier que tout est bien en place sur le bucket, il suffit de faire un petit ls

s3cmd ls s3://monbucket

Pour connaitre la taille de votre bucket, faites un

s3cmd du s3://monbucket

Pour récupérer l'un de ces fichiers, utilisons maintenant get

s3cmd get s3://monbucket/fichier.jpg

Pour copier un fichier d'un endroit à un autre du bucket (ou de 2 buckets différents), faites :

s3cmd cp s3://monbucket/fichier.jpg s3://monbucket/autre_dossier/fichier.jpg

Pour déplacer un fichier, même principe :

s3cmd mv s3://monbucket/fichier.jpg s3://monbucket/autre_dossier/fichier.jpg

Voilà, maintenant vous maitrisez S3cmd. Maintenant si vous voulez supprimer un truc (fichier ou dossier), il faut faire :

s3cmd del s3://monbucket/fichier.jpg

Vous pouvez aussi utiliser l'alias "rm" à la place de "del".

Sachez enfin que pour supprimer totalement un bucket il faut que ce dernier soit vide. Pensez donc bien à en supprimer tout le contenu avant de supprimer le bucket en lui-même. Voici comment supprimer un bucket vide :

s3cmd rb s3://monbucket

Si vous placez des choses dans Glacier comme je vous ai expliqué sur mon tuto précédent, vous pouvez aussi restaurer des fichiers à partir de celui-ci avec la commande

      s3cmd restore s3://monbucket/fichier.jpg

Si vous avez besoin de synchroniser un répertoire local avec un répertoire S3, utilisez la commande sync. Elle utilisera les MD5 des fichiers pour savoir quoi envoyer et quoi mettre à jour sur votre S3 ou en local sur votre disque dur.

s3cmd sync monrepertoire s3://monbucket/monrepertoire

Et voilà.. Rien de plus simple à utiliser en fait, alors pourquoi s'en passer ?

S3cmd propose aussi des choses un peu plus évoluées pour gérer les droits d'accès, jouer avec les archives splittées, régler le cycle de vie des buckets, ou encore publier sur le web mais je n'ai pas encore testé toute cette partie, donc je vous invite à vous pencher sur la doc ;-).

Cet article merveilleux et sans aucun égal intitulé : Installer et utiliser s3cmd pour gérer Amazon S3 en ligne de commande ; a été publié sur Korben, le seul site qui t'aime plus fort que tes parents.


Dply – Un VPS gratuit pour 2h

Mon, 28 Nov 2016 12:31:56 +0000 - (source)

Voici un service original qui m'a été remonté par Guillaume. Cela s'appelle Dply et ça permet en quelques secondes et gratuitement, d'avoir un serveur virtuel (VPS) pour tester votre code ou vos applications.

Les VPS ont la config suivante : 1 CPU, 512 MB de RAM et 20 GB de SSD. Pour avoir votre instance, il suffit de se connecter avec son compte Github et d'utiliser la clé SSH de celui-ci.

Niveau OS, vous pouvez avoir sur le serveur, les distribs suivantes :

Alors je disais que c'était gratuit, mais pour être plus précis, c'est gratuit pendant 2h. Au-delà, il faudra payer... Mais bon, ça reste raisonnable. Voici les tarifs :

Cela peut permettre à n'importe qui de tester rapidement un script ou un bout de code, directement sur un serveur, sans avoir à mobiliser des ressources ou à prendre des risques avec un serveur déjà utilisé pour autre chose.

Bref, à bookmarker pour le jour où vous avez besoin d'un serveur ou d'un peu de ressource.

A découvrir ici.

Cet article merveilleux et sans aucun égal intitulé : Dply – Un VPS gratuit pour 2h ; a été publié sur Korben, le seul site qui t'aime plus fort que tes parents.


Sauvegardez votre serveur Linux sur Amazon S3 avec Backup Manager

Sat, 26 Nov 2016 21:16:07 +0000 - (source)

Dans la vie, y'a 2 choses vraiment importantes.

Alors on va voir aujourd'hui comment mettre en place une sauvegarde d'un Linux avec upload vers Amazon S3 (mais vous pourrez aussi faire de l'upload vers FTP ou un autre serveur via SSH).

Et pour cela, on va utiliser Backup Manager. Le site officiel a disparu, mais les sources sont sur Github et apparemment toujours maintenues. Vous allez voir c'est très simple.

Placez vous dans votre répertoire home

cd ~

Et clonez le dépôt git

git clone https://github.com/sukria/Backup-Manager.git

Placez vous dedans

cd Backup-Manager

et installez Backup Manager avec la commande (vous devrez peut être utiliser sudo)

make install

Copiez le fichier de conf dans /etc/.

cp /usr/share/backup-manager/backup-manager.conf.tpl /etc/backup-manager.conf

Puis ouvrez ce fichier.

nano /etc/backup-manager.conf

On va regarder ça ensemble et je vais me concentrer uniquement sur les paramètres essentiels. Pour le reste, je vous laisserai vous documenter.

Dans la section Repository, choisissez le répertoire (BM_REPOSITORY_ROOT) où seront stockés les backups en local. Par défaut c'est /var/archives.

archives

Si vous avez de la place sur votre disque à cet endroit, créez un répertoire /var/archives (mkdir /var/archives) et ne touchez pas à ce paramètre.

Concernant les backups, vous devez aussi préciser le nombre de jours que vous voulez garder (BM_ARCHIVE_TTL). Ici c'est 5 jours, mais en ce qui me concerne, je mets un peu plus, car j'ai de la place sur le disque dur.

jours

On va ensuite choisir la méthode de sauvegarde. Vous pouvez faire uniquement un export tarball (archive simple) ou un export tarball incrémentale (archive complète + archives différentielles), un export svn, un export mysql...etc.

tarball

Comme vous pouvez le voir, moi j'ai mis pour le paramètre BM_ARCHIVE_METHOD : "tarball-incremental mysql"

Cela va déclencher un backup incrémental et un backup MySQL. Sachez que même si vous choisissez tarball-incremental, vous devez quand même éditer la section tarball ci-dessous.

tarboule

Au niveau de BM_TARBALL_DIRECTORIES, vous devez lister les répertoires que vous souhaitez sauvegarder. En ce qui me concerne, ce sera /etc et /var/www. Mais ça peut aussi être /home/ ...etc

Un peu plus bas, BM_TARBALL_BLACKLIST concerne les répertoires à exclure du backup. Cela peut être pratique si vous voulez sauvegarder tout votre répertoire /home, mais pas /home/archives qui contient vos backups ou d'autres choses dont vous n'avez pas besoin..

Enfin, BM_TARBALL_SLICESIZE permet de choisir des tailles max d'archives. Ici ce sera donc des archives de 1GB max à chaque fois.

Passons ensuite aux spécificités de l'incrémental.

incre

BM_TARBALLINC_MASTERDATETYPE vous permet de préciser si vous voulez une archive master par semaine ou par mois. Et ensuite de spécifier la fréquence de celle-ci (BM_TARBALLINC_MASTERDATEVALUE). Donc là, dans mon exemple, le master sera réalisé 1 fois par mois.

Passons ensuite à la conf MySQL. Ici, c'est du classique... login, mot de passe, port de MySQL...Etc

mysql

Petit parenthèse, concernant l'export MySQL, j'ai eu des petites erreurs de type

errno: 24 - Too many open files

Dans ce cas, pensez à ajouter le paramètre "open_files_limit = 3000" (je vous laisse choisir le nombre en fonction de vos besoins), dans la config mysqld.cnf et à relance MySQL.

Voilà, c'est terminé pour cette première partie. On va donc faire un test sans s'occuper de l'upload. Pour cela, mettez "none" dans le paramètre BM_UPLOAD_METHOD.

export

Sauvegardez le fichier, et lancez la commande

backup-manager -v

Et là, vous verrez si tout se passe bien. Si vous avez des erreurs, il y a des chances que ça concerne MySQL. Pensez à bien lire les logs d'erreur retournés pour comprendre de quoi il s'agit.

Pour surveiller que le backup est en cours, jetez un oeil dans votre répertoire /var/archives en faisant des "ls -l" à la suite pour voir la taille des fichiers augmenter.

Bon, ça, c'était le plus long à faire. Maintenant on va balancer tout ça sur Amazon S3. Vous pouvez bien sûr choisir une autre méthode d'upload comme FTP ou transfert via SSH. Et vous pouvez en mettre plusieurs... Par exemple envoyer le backup vers un FTP et vers S3.

Mettez donc le paramètre BM_UPLOAD_METHOD sur s3

s3

Alors concernant S3, il y a besoin de 3 paramètres :

config

BM_UPLOAD_S3_DESTINATION c'est ce qu'on appelle le Bucket. Pas besoin de le créer en amont sur Amazon S3. Mettez ce que vous voulez et le script le créera pour vous directement.

BM_UPLOAD_S3_ACCESS_KEY et BM_UPLOAD_S3_SECRET_KEY, ce sont les identifiants S3 dont vous avez besoin. Pour cela, rendez vous ici sur votre compte S3 :

Cliquez sur Manage Users

iam1

Et ajoutez un nouvel utilisateur

iam2

Donnez lui un nom et cochez la case programmatic access.

iam3

Si vous n'avez pas encore créé de groupe avec les droits sur la partie S3, faites-le.

iam4

Finalisez la création de l'utilisateur

iam5

Puis récupérez l'Access Key ID et le Secret Access Key pour les mettre dans le fichier de conf de Backup Manager.

iam6

Et voilà... Maintenant y'a plus qu'à retester backup manager pour voir si le bucket est bien créé et si vos fichiers sont bien envoyés vers S3.

backup-manager -v

Comme Backup Manager utilise Perl, il est possible que vous ayez une de ce style :

Net::Amazon::S3 is not available, cannot use S3 service : Can't locate Net/Amazon/S3.pm in @INC (you may need to install the Net::Amazon::S3 module) (@INC contains: /etc$

BEGIN failed--compilation aborted at (eval 11) line 2.

The upload transfer "s3" failed.

Cela veut tout simplement dire que le module perl S3 n'est pas présent sur votre système. Faites donc un

sudo apt-get install libnet-amazon-s3-perl

Puis un

sudo cpan Net::Amazon::S3::Client

Et voilà ! Recommencez :

backup-manager -v

Normalement, si tout se passe bien, vos fichiers seront envoyés vers Amazon S3. Très bien !

Maintenant on va mettre tout ça dans la crontab pour que Backup Manager se lance tous les jours à minuit.

Lancez donc la commande

crontab -e

Et dedans, mettez

0 2 * * * backup-manager

Le 2 veut dire que ça va se lancer tous les jours à 2h du mat. Je ne rentre pas plus dans le détail car cet article est déjà assez long. Si vous voulez mettre autre chose, et que vous ne maitrisez pas la syntaxe cron, allez faire un tour sur ce site.

Un autre truc qui peut être intéressant aussi, c'est d'utiliser Amazon Glacier, en plus de S3. On peut par exemple directement depuis les paramètres de S3, mettre en place un cycle de vie de nos sauvegardes. Les conserver par exemple 30 jours sur Amazon S3, puis les basculer sur Glacier au bout de 30 jours et les supprimer de S3 au bout de 90. Ainsi, elles seront archivées ad vitam eternam (ou à peu près ) dans Glacier.

Si ça vous branche, voici comment faire. Placez-vous sur votre Bucket S3 fraichement créé qui contient vos sauvegardes, cliquez sur "Properties", et "Add Rule" dans la section Lifecycle.

life2

Choisissez d'appliquer cette future règle à votre Bucket

life3

Puis c'est sur cette partie que vous devez régler le cycle de vie de vos backups. Ici, je choisis d'archiver vers glacier au bout de 60 jours et de supprimer mon archive sur S3 au bout de 120 jours.

glaciermove

Une fois la règle créée, vous avez alors un résumé ici. Cliquez sur le bouton "Create and Activate rule".

life6

Et voilà ! life7

L'intérêt avec Glacier, c'est que c'est moins cher que S3 pour du stockage à long terme. Par contre, attention, si vous avez besoin de récupérer sur Glacier des archives de moins de 90 jours, vous devrez payer assez cher. Donc autant laisser une petite marge avant la suppression sur S3.

Ensuite pour voir vos backups Glacier, il vous suffira dans l'interface S3, de cliquer sur le bouton "Show".

glacier

Bon, voilà, j'ai fini. Un long tuto mais un tuto indispensable car une fois encore au risque de me répéter, les backups c'est HYPER IMPORTANT.

Enfin, pour terminer en beauté, pensez à récupérer de temps en temps vos backups et en vérifier le contenu, voire à remonter une base avec et votre site pour voir si tout se déroule bien. C'est tout aussi important !

Bonne sauvegarde à tous !

Cet article merveilleux et sans aucun égal intitulé : Sauvegardez votre serveur Linux sur Amazon S3 avec Backup Manager ; a été publié sur Korben, le seul site qui t'aime plus fort que tes parents.


Structurer ma première application NodeJS

Sat, 26 Nov 2016 15:55:14 +0000 - (source)

Si entre les différentes annonces du Black Friday il vous reste encore un peu de temps pour coder, je vous propose de réviser vos gammes sur NodeJS avec François-Guillaume Ribreau et Julien Breux, développeurs chez iAdvize.

Une conférence mise en place avec eux pour un RJTalk, évènement dédié aux developpeurs que j'organise depuis cette année.

Respectivement Fullstack Hacker et Software Architect à Nantes, François-Guillaume Ribreau et Julien Breux ont beaucoup à dire à propos de leurs découvertes sur l’industrialisation de projets NodeJS.

Je vous laisse en compagnie des deux artistes ;)

Cet article merveilleux et sans aucun égal intitulé : Structurer ma première application NodeJS ; a été publié sur Korben, le seul site qui t'aime plus fort que tes parents.


Machines à voter, machines à truquer

Fri, 25 Nov 2016 10:22:13 +0000 - (source)

Les machines à voter c'est l'avenir ! Surtout, car ça permet de truquer une élection beaucoup facilement qu'en cachant des bulletins de vote dans ses chaussettes .

Tenez par exemple, aux États-Unis pour l'élection de Trump, certaines machines utilisées lors de l'élection de Tump, sont des machines à voter de type Sequoia AVC Edge. Elles sont présentes dans 13 états américains. Et c'est intéressant, car les chercheurs en sécurité de Cylance se sont penchés sur celle-là.

En quelques étapes simples et sans droits particuliers, ils ont été capables de rediriger n'importe quel vote d'un candidat à un autre (genre, vous votez pour Hillary et ça incrémente le score de Trump), de changer le nom des candidats et, simplement en insérant dans la machine une mémoire flash PCMCIA, ils ont pu mettre à jour les données relatives au vote, grâce à un fichier spécialement forgé pour l'occasion et contenant de fausses données de vote.

Easy peasy quoi.

Voici la vidéo qui montre tout ça :

Bref, rien de bien rassurant une fois encore, sur la machine à voter électronique. D'ailleurs, des questions commencent à se poser sur la dernière élection...

Je suis à fond pour les nouvelles technos et le vote électronique, pourquoi pas, mais avant d'avoir confiance en ce machin, il va falloir que les mecs qui les fabrique aient quelques notions de sécurité et qu'ils imaginent un système plus complexe à détourner.

Une réflexion à reprendre depuis le début, un peu comme ce qu'a fait Kaspersky avec son OS finalement.

Source

Cet article merveilleux et sans aucun égal intitulé : Machines à voter, machines à truquer ; a été publié sur Korben, le seul site qui t'aime plus fort que tes parents.


Comment installer un plugin sur Discourse ?

Fri, 25 Nov 2016 05:37:05 +0000 - (source)

J'ai eu besoin d'installer sur le Discourse, le support des balises BBCode que vous connaissez bien si vous pratiquez un peu les forums. Seulement, nativement ce n'est pas supporté.

Mais Discourse sur son Github, propose tout un tas de plugins qui permettent d'étendre les fonctionnalités de la plateforme et parmi ceux-là, on y trouve le plugin vbulletin-bbcode.

Je vais donc en profiter pour faire un petit tuto expliquant comme installer un plugin sous Discourse. Vous allez voir c'est très simple.

Connectez vous à votre serveur et éditez le fichier de config app.yml qui se trouve logiquement dans /var/discourse/containers/

Recherchez y la section hooks suivante :

appyml

Et ajoutez tout simplement l'URL qui pointe vers le dépôt git. Dans le cas de vbulletin-bbcode, il s'agit donc de https://github.com/discourse/vbulletin-bbcode.git .

- git clone https://github.com/discourse/vbulletin-bbcode.git

(Pour l'indentation, utilisez des espaces et pas des tabulations car sinon, vous aurez des erreurs.)

Oui, rien de plus simple. Pas besoin de télécharger d'archive, et de placer du code. Il suffit juste de spécifier un dépôt git dans le fichier de conf.

Ensuite, sauvegardez le app.yml et reconstruisez l'application avec la commande suivante (placez vous dans /var/discourse) :

./launcher rebuild app

Et voilà !

discoursebbcode

Maintenant vous avez un beau support du BBCode (ou d'autre chose) sur Discourse. D'ailleurs, si vous avez besoin d'autres plugins sur tech.korben.info, n'hésitez pas à me le dire.

Cet article merveilleux et sans aucun égal intitulé : Comment installer un plugin sur Discourse ? ; a été publié sur Korben, le seul site qui t'aime plus fort que tes parents.


Kaspersky révèle son système d’exploitation sécurisé

Thu, 24 Nov 2016 20:15:41 +0000 - (source)

Il est assez rare de voir sortir un nouvel OS. En général, ce sont plutôt de nouvelles distribs Linux adaptées pour certains matos IoT, routeurs, smartphones et box en tout genre.

Donc quand Kaspersky, le célèbre éditeur d'antivirus annonce son système d'exploitation, c'est un véritable événement. Et ne croyez pas qu'ils se lancent sur ce créneau sur un coup de tête... non, non, cela fait quand même 14 ans que les mecs bossent dessus.

Plutôt que de se reposer sur Linux ou BSD, ils l'ont donc développé from scratch, c'est-à-dire à partir de zéro. Sa spécialité ?

La sécurité.

Kaspersky OS fonctionne sur un principe de micro kernel. Cela signifie qu'il peut être personnalisé bloc par bloc en fonction des différents besoins de l'utilisateur, afin de limiter au maximum les choses inutiles. C'est donc un OS taillé sur mesure.

04-960x600

Pas d'interface graphique, mais une interface en ligne de commande et un système d'exploitation présenté comme Hack-Proof. Enfin, pas à 100% vous vous en doutez, mais si un attaquant voulait obtenir un accès non autorisé sur la machine, il devrait casser la signature numérique du propriétaire du compte, ce qui n'est possible à un coût raisonnable qu'avec un ordinateur quantique (déjà financièrement amorti, j'imagine )). Le système de sécurité qui est fondu dans l'OS est d'ailleurs capable de contrôler le comportement des applications et des modules de l'OS.

Pour le moment, cet OS est présent dans un switch réseau de niveau 3 de la marque Kraftway.

dsc2

Sur son blog, Eugene Kaspersky nous en parle un peu et nous montre quelques photos. Il prend comme exemple les dernières attaques DDoS qui ont frappé Dyn ou d'autres acteurs (OVH...etc) ces derniers mois et garantie que Kaspersky OS peut protéger leurs infrastructures réseau, mais aussi des systèmes industriels type SCADA / ICS ou encore des objets connectés.

eugene

Vous l'aurez compris, Kasperky OS ne viendra pas concurrencer les OS grand public type Windows, Linux et autres macOS, mais trouvera surement son marché auprès des experts en sécurité et des fabricants de matériel qui ont un besoin croissant en sécurité. Personnellement, je trouve que c'est une excellente idée et une orientation business très intelligente.

Je ne sais pas sous quelle forme Kaspersky compte vendre son OS aux sources probablement fermées aux constructeurs ni à quel prix, mais j'espère que contrairement à Cisco, ils feront une ristourne en cas d'implantation de backdoor made in gouvernement ;-)).

Cet article merveilleux et sans aucun égal intitulé : Kaspersky révèle son système d’exploitation sécurisé ; a été publié sur Korben, le seul site qui t'aime plus fort que tes parents.


“E-commerce & cybersécurité” – Sortie du livre blanc de la FEVAD demain

Wed, 23 Nov 2016 06:27:52 +0000 - (source)

Si vous vous intéressez à la cyber sécurité, j'aimerai vous indiquer la sortie d'un livre blanc de la FEVAD, à ce sujet, ce jeudi matin.

La FEVAD pour ceux qui ne connaitraient pas, c'est la Fédération du e-commerce et de la vente à distance dont l'objet est d'accompagner le développement éthique et durable du commerce électronique et de la vente à distance en France.

Ce livre blanc dont le titre est "Maitriser les risques, sensibiliser sur les enjeux" est un tour d'horizon des typologies d'attaques, des tendances et des risques que rencontrent les e-commerçants, avec pas mal de témoignages et toute une section sur les solutions pour lutter contre ces risques et renforcer sa cyber sécurité. C'est adressé aux cyber marchands, mais ça peut servir aussi à tous ceux qui sont dans d'autres secteurs.

fevad2

Si je vous en parle, c'est surtout parce que j'ai une petite interview dedans et que j'ai participé à l'écriture / relecture du chapitre sur le Bug Bounty. C'est ti pas la classe ça ?

La mise à dispo de ce livre se fera après son lancement officiel qui aura lieu ce jeudi 24 novembre à 10h dans les locaux de la FEVAD, et vous pourrez le télécharger ici juste après.

fevad3

Hâte de découvrir tout ça demain.

Cet article merveilleux et sans aucun égal intitulé : “E-commerce & cybersécurité” – Sortie du livre blanc de la FEVAD demain ; a été publié sur Korben, le seul site qui t'aime plus fort que tes parents.


Edito du 23/11/2016

Wed, 23 Nov 2016 05:49:18 +0000 - (source)

Hello tout le monde,

Je tiens tout de suite à vous dire que la semaine sera assez pauvre en articles, car je cumule 2 choses que j'adore : Un gros déplacement à Paris de plusieurs jours et une grosse fatigue due à une souche de virus inconnu et virulent élevé et ramené par mes minimois qui les collectionnent avec plus d'assiduité que les pokemons.

Depuis quelques jours, je teste aussi un nouveau format de diffusion vidéo live sur Periscope. Rien d'aussi sérieux que la matinale de mes amis de NowTechTV, mais j'ai fait un démontage live de NAS totalement improvisé, des interviews lors d'un événement B2B, et un genre de Q&A en marchant dans les rues de Paris. Et j'avoue que j'ai trouvé ça assez sympa à faire.

Je le referai surement régulièrement quand j'ai des choses rigolotes à portée de main (matos, événement, rencontres avec des gens cool, voyage...etc.).

Bon, voilà pour les news. Je vous souhaite une bonne fin de semaine.

Cet article merveilleux et sans aucun égal intitulé : Edito du 23/11/2016 ; a été publié sur Korben, le seul site qui t'aime plus fort que tes parents.


Powered by VroumVroumBlog 0.1.32 - RSS Feed
Download config articles