Catégories
Image Open-source Systeme Web

Mon top 3 des sites pour fonds d’écran

Il y a bien une chose avec laquelle je ne rigole: la qualité de mes fonds d’écran…Vu le temps que l’on passe (trop ?) devant nos machines, il serait dommage d’avoir des images moches et/ou rébarbatives. J’opte donc pour une rotation automatique toutes les 12 heures (avec le logiciel Wallpaper-tray sous Ubuntu et en suivant cette méthode pour mon MBP sous Mac OS X)

Voici donc les 3 sites sur lesquels je récupère mes fameux « wallpapers » (sous licence publique pour une utilisation personnelle).

Catégories
Web

Mes « marques ta-pages » de la semaine

Marques-pages

Catégories
Blog Web

Je veux désactiver Buzz

Je dois avouer que le dernier service Google (Buzz pour ne pas le citer) m’a légèrement échauffé les oreilles. De retour de congés, le lien Buzz est apparu dans ma messagerie personnelle Gmail. De plus des mails (tagués Buzz) étaient envoyés automatiquement, un comble !

Pourquoi Google n’a pas fait comme d’habitude en proposant cette nouvelle fonction dans les Labs ? L’aspect intrusif de Buzz dans ma messagerie est pour moi insupportable. Je ne suis manifestement pas le seul et devant le tollé général, Google a fait machine arrière et devrait proposer dans les prochains jours (d’abord au US puis ensuite en France et dans le reste du monde) une option pour désactiver Buzz.

Mon système de micro-blogging restera Twitter et Identica, je continuerai cependant à utiliser Gmail pour ma messagerie personnelle, n’ayant rien trouvé de mieux (souplesse, rapidité, stabilité…)

Et vous , quel est sont vos réactions vis à vis de la mise en place de Buzz ?

Catégories
Open-source Reseau Web

Cracker un réseau Wifi sous GNU/Linux

Article supprimé le 31 janvier 2015 à la demande de la gendarmerie nationale.

Catégories
Open-source Reseau Web

Simuler des connexions HTTP/FTP simultanées

Curl-Loader est un logiciel libre, écrit en langage C (le meilleur langage pour développer des applications réseaux), permettant de simuler sur votre serveur WEB ou FTP un grand nombre de connexions simultanées. Nous allons dans ce billet voir comment installer, configurer et tester ce logiciel dans un environnement GNU/Linux (Ubuntu 9.10 dans mon cas).

Installation de Curl-Loader

Comme il n’est pas encore (des volontaires ?) disponible dans les dêpots officiels, il va falloir compiler Curl-Loader à la main. Avant d’aller plus loin, on installe des pré-requis système:

[shell]

sudo aptitude install build-essential openssl libssl-dev

[/shell]

On commence par récupérer la dernière version disponible (0.51 au moment de l’écriture de ce billet):

[shell]

wget http://downloads.sourceforge.net/project/curl-loader/curl-loader/curl-loader-0.51/curl-loader-0.51.tar.gz?use_mirror=sunet

[/shell]

On décompresse et compile le tout:

[shell]

tar zxvf curl-loader-0.51.tar.gz

cd curl-loader-0.51

make optimize=1

[/shell]

On finalise l’installation avec:

[shell]

sudo make install

[/shell]

Configuration de Curl-Loader

Tout est centralisé dans un fichier de configuration. Quelques exemples de fichiers de conf sont fournis avec les sources dans le répertoire ./conf-exemples/.

Le plus simple est de partir du fichier ./conf-exemples/bulk.conf:

[shell]

cp ./conf-exemples/bulk.conf ~/curlloader.conf

cd ~

[/shell]

On édite le fichier pour l’adapter à son besoin (documentation exhaustive disponible sur le site officiel) :

[shell]

vi curlloader.conf

[/shell]

[shell]

########### GENERAL SECTION ################################

BATCH_NAME= bulk

CLIENTS_NUM_MAX=200

CLIENTS_RAMPUP_INC=5

INTERFACE=eth0

NETMASK=24

IP_ADDR_MIN= 192.168.29.148

IP_ADDR_MAX= 192.168.29.148

IP_SHARED_NUM=1

CYCLES_NUM= 100

URLS_NUM= 1

########### URL SECTION ####################################

URL=http://www.monserveurweb.com/

URL_SHORT_NAME="MonServeurWeb"

REQUEST_TYPE=GET

TIMER_URL_COMPLETION = 5000

TIMER_AFTER_URL_SLEEP = 500

[/shell]

Utilisation de Curl-Loader

Attention à ne lancer Curl_Loader que vers un serveur qui vous appartient.
Dans le cas contraire, cela peut être considéré comme une attaque par dénie de service !

Il ne reste plus qu’a lancer Curl-Loader avec ce fichier de configuration:

[shell]

sudo curl-loader -f ~/curlloader.conf

[/shell]

Que va faire l’exécution de Curl-Loader avec notre fichier de configuration ?

On commence un cycle en envoyant sur le réseau 5 (CLIENTS_RAMPUP_INC) requêtes simultanées vers le serveur Web d’URL http://www.monserveurweb.com/(URL), puis 1 seconde plus tard, 5 requêtes de plus et ainsi de suite jusqu’à 200 (CLIENTS_NUM_MAX) requêtes simultanées. A la fin de ce cycle, on continu jusqu’à attendre le 100em cycle (CYCLES_NUM).

A la fin du test on a les informations suivantes qui s’affichent:

[shell]

Test total duration was 54 seconds and CAPS average 231:

H/F Req:24665,1xx:0,2xx:12332,3xx:12333,4xx:0,5xx:0,Err:0,T-Err:1,D:1ms,D-2xx:3ms,Ti:1343807B/s,To:56181B/s

H/F/S Req:0,1xx:0,2xx:0,3xx:0,4xx:0,5xx:0,Err:0,T-Err:0,D:0ms,D-2xx:0ms,Ti:0B/s,To:0B/s

Exited. For details look in the files:

– bulk.log for errors and traces;

– bulk.txt for loading statistics;

– bulk.ctx for virtual client based statistics.

– bulk.ops for operational statistics.

[/shell]

Pour la le lecture des rapports, voici un petit mémento:

  • CAPS=call attempts per seconds;
  • run-time in seconds;
  • requests num;
  • 1xx success num;
  • 2xx success num;
  • 3xx redirects num;
  • client 4xx errors num;
  • server 5xx errors num;
  • other errors num, like resolving, tcp-connect, server closing or empty responses number (Err);
  • url completion time expiration errors (T-Err);
  • average application server Delay (msec), estimated as the time between HTTP request and HTTP response without taking into the account network latency (RTT) (D);
  • average application server Delay for 2xx (success) HTTP-responses, as above, but only for 2xx responses. The motivation for that is that 3xx redirections and 5xx server errors/rejects may not necessarily provide a true indication of a testing server working functionality (D-2xx);
  • throughput in, batch average, Bytes/sec (T-In);
  • throughput out, batch average, Bytes/sec (T-Out);
Catégories
Open-source Web

Firefox 3.7 sous Ubuntu (dépôts)

Après Firefox 3.6.5, c’est la version 3.7 qui prendra le relai des navigateurs Web de Mozilla.  Selon PC INpact, la principale nouveauté de cette version est l’intégration de la technologie d’Electrolysis:

 » Electrolysis a pour objectif principal de permettre à Firefox l’utilisation de tous les cœurs disponibles dans la machine. La grande majorité des machines vendues aujourd’hui dispose d’au moins deux cœurs d’exécution, sinon quatre. Le navigateur ne peut en utiliser qu’un seul. Ainsi, lors de l’affichage de certaines pages, la charge peut grimper à 100 % et déclencher la pleine vitesse du ventilateur, en particulier dans un ordinateur portable. »

Il est déjà possible de tester cette nouvelle version (qui est actuellement en développement) sous son système d’exploitation GNU/Linux Ubuntu en suivant la procédure suivante.

On commence par ajouter le dépôts PPA officiel (les « daily builds » de Mozilla):

[shell]

sudo add-apt-repository ppa:ubuntu-mozilla-daily

sudo aptitude update

[/shell]

Ensuite on installe Firefox 3.7 (qui peut cohabiter avec des versions antérieures) avec la commande:

[shell]

sudo aptitude install firefox-3.7

[/shell]

Il ne reste plus qu’a lancer le navigateur en allant dans le menu « Applications » (Internet/Minefield 3.7 Web Browser) ou en ouvrant un terminal et en lancant la commande:

[shell]

firefox-3.7

[/shell]

Et voilà le travail !

Catégories
Web

Mes « marques ta-pages » de la semaine

Marques-pages

Catégories
Web

Mes « marques ta-pages » de la semaine

Marques-pages

Catégories
Open-source Web

Pour soutenir la « Quadrature du net »

Vous connaissez tous la « Quadrature du net », cette association qui lute contre les lois menaçant nos libertés individuelles dans le monde numérique (notamment Hadopi, LOPPSI…). Comme toute assoc, elle a des frais que seule votre générosité peut combler…

La « Quadrature du net » lance donc une campagne de dons (via Paypal ou par chèque). Si vous êtes sensible à leurs actions, je vous recommande de donner quelques-uns de vos chers €uros

A votre bon coeur…

Vive le libre, vive la liberté !

Catégories
Image Systeme Web

Installer Picasa sur Ubuntu à partir des dépôts Google

Picasa est la réponse de Google à iPhoto d’Apple. Quand une nouvelle fonctionnalité est proposée dans le premier, elle arrive immanquablement dans le second quelques release plus tard. Le logiciel permet de gérer sa collection de photos numériques, avec des fonctions, de classement, retouche, exportation…

Les principaux défauts de Picasa sont:

  • le fait qu’il n’est pas libre… Mais je n’ai, à l’heure actuelle pas trouvé de solution open-source arrivant à la qualité de ce logiciel (que ce soit F-Spot, gThumb ou Shotwell…)
  • il n’existe pas de version spécifique pour les environnement GNU/Linux (comme on peut le trouver sous Mac OS X) mais une version « winefier » de la version Windows (comme Wine est sous license LGPL, Google l’a intégré au package d’installation de Picasa).

Voici donc une procédure pour installer Picasa sur votre distribution GNU/Linux Ubuntu 9.10.

On commence par ajouter les dépôts Google

[shell]
sudo vim /etc/apt/sources.list.d/google-karmic.list
# Google repository
deb http://dl.google.com/linux/deb/ stable non-free

# Google testing repository
deb http://dl.google.com/linux/deb/ testing non-free
[/shell]

Puis on importe la clés d’authentification:

[shell]
wget -q -O – https://dl-ssl.google.com/linux/linux_signing_key.pub | apt-key add –
[/shell]

On met à jour notre liste de dépôt puis on installe Picasa:

[shell]
sudo apt-get update
sudo apt-get install picasa
[/shell]