Overblog Suivre ce blog
Administration Créer mon blog
14 août 2011 7 14 /08 /août /2011 15:32

 

Je vais m'intéresser ici uniquement au cache filesystem, pour ceux qui souhaitent comprendre le fonctionnement globale de la mémoire je vous renvoie à la présentation de William Roche effectuée lors d'une des nombreuses soirée Guses. Il ne s'agit pas ici d'expliquer précisemment le fonctionnement de ce cache, pour les puristes je vous renvois aux excellents ouvrages "Solaris Internals" et "Solaris Performance and tools".

 

Le cache filesystem a été implémenté comme une partie intégrante de la mémoire virtuelle depuis la version de SunOS 4.0. Il permet d'utiliser dynamiquement l'ensemble de la mémoire disponible pour cacher les fichiers en mémoire RAM (découper en page). L'intérêt est important : éliminer les IO physiques. Le cache filesystem s'intégre automatiquement quelque soit le système de fichiers utilisé (fonctionne avec UFS, NFS, VxFS, a noter qu'avec ZFS son fonctionnement apporte son petit lot de différences).

 

Pour visulaliser l'utilisation de la mémoire j'utilise souvent la macro memstat. Cette macro permet de cerner rapidement comment la mémoire RAM du système Solaris est découpée.

 

# mdb -k
Loading modules: [ unix genunix specfs dtrace zfs sd pcisch ssd fcp fctl mpt emlxs ip hook neti mpt_sas sctp arp usba s1394 wrsm nca lofs md cpc random crypto wrsmd fcip logindmux ptm ufs sppp nfs ipc ]

> ::memstat

Page Summary                Pages                MB  %Tot
------------     ----------------  ----------------  ----
Kernel                     832396              6503    8%
ZFS File Data             2106285             16455   20%
Anon                      4334797             33865   42%
Exec and libs               24420               190    0%
Page cache                 342936              2679    3%
Free (cachelist)          2563444             20026   25%
Free (freelist)             88904               694    1% 

Total                    10293182             80415
Physical                 10269991             80234


Le cache filesystem est composé des deux éléments suivants "Page cache" et "Free (cachelist)". Pour simplifier, la catégorie "Page cache" inclue la portion "segmap" (inclus aussi les fichiers mappés). Quand un fichier est accédé (lecture ou écriture) celui-ci est placé dans la portion "segmap". Le fichier peut être par la suite placé dans la portion "Free (cachelist)" (pour plus de détails techniques sur le fonctionnement de segmap et du cache filesystem je vous renvois au chapitre 14.7 et 14.8 dans "Solaris Internals").

 

De nombreux outils inclus dans le système nous permettent de vérifier l'activité du cache filesystem. La commande vmstat fait partie de ces outils. La colonne "re" indique le nombre de page transféré entre la portion "Free (cachelist)" et la portion "segmap". La colonne "fpi" indique le nombre de lecture (en kb) de "fichiers réguliers" entre le disque et le cache filesystem (pour plus d'explication n'oublier pas de lire le manuel de la commande).     

 

# vmstat -p 3 5
     memory           page          executable      anonymous      filesystem
   swap  free  re  mf  fr  de  sr  epi  epo  epf  api  apo  apf  fpi  fpo  fpf
76804104 18206496 5744 5392 218 0 0 105  0    0    0    0    0 45998 218  218
83421912 26518528 868 223 0 0  0    0    0    0    0    0    0 6315    0    0
83421728 26526200 1624 503 8 0 0    0    0    0    0    0    0 6647    8    8
83423152 26536064 1159 458 0 0 0    0    0    0    0    0    0 5539    0    0
83421648 26538952 1002 1333 0 0 0   0    0    0    0    0    0 6738    0    0

 

Avec Dtrace il est possible d'en savoir un peu plus. Par exemple je peux savoir qui provoque cette activité de paging disque vers mémoire, qui provoque une activité "Free (cachelist)" vers "Page cache", etc... Les deux commandes suivantes nous le montre rapidement.

 

# dtrace -n 'vminfo:::fspgin { @[execname] = count(); }'
dtrace: description 'vminfo:::fspgin ' matched 1 probe
^C 

  rsync            20

# dtrace -n 'vminfo:genunix::pgrec { @[execname] = count(); }'
dtrace: description 'vminfo:genunix::pgrec ' matched 1 probe
^C 

  oracle          108 

 

Ce qui est surtout intéressant c'est de calculer le bénéfice qu'offre le cache filesystem. Je calcule ici le nombre d'opérations de lecture dans le cache et sur le disque. Pour ce faire j'utilise comme toujours Dtrace. Deux probes sont nécessaires : la probe "fsinfo" (activités du filesystem) et la probe "io" (activités des io physiques). Petite spécificité du script, je recherche uniquement des opérations des bases de données Oracles (chaque base étant dans une zone Solaris).

 

# cat cacheread.d

#!/usr/sbin/dtrace -s
#pragma D option quiet

dtrace:::BEGIN
{
        trace("Tracing for 60 minutes... Ctrl-C to quit.\n\n");
}

fsinfo:::read
/execname == "oracle"/
{
        @io["logical", zonename] = count();
}

io:::start
/args[0]->b_flags & B_READ && execname == "oracle"/
{
        @io["physical", zonename] = count();
}

profile:::tick-60m
{
        printa(" %-10s %-10s %10@d\n", @io);
        trunc(@io);
        exit(0);
}


# ./cacheread.d

Tracing for 60 minutes... Ctrl-C to quit.
^C
  physical      zone10             2022
  logical       zone10            45419 

 

Le résultat parle de lui même. 95% des lectures se sont effectuées en mémoire et non sur disque. L'accès à la mémoire étant nettement plus rapide que l'accès à un disque, le bénéficie est estimable (cela dépend en grande partie du type de workload de nos applications, je l'accorde). Cependant tout n'est pas si simple que cela... Dans un prochain article nous verrons un cas où son activation pose de réel problème.

 

P.S : Il existe une multitude de scripts Dtrace permettant de mesurer l'efficacité du cache filesystem : par exemple readtype.d, writetype.d, etc...

 

Published by gloumps - dans kernel
commenter cet article
8 août 2011 1 08 /08 /août /2011 21:37

 

Comment vérifier le mode d'accès directio sur nos fichiers ? Confronté récemment à cette question, je vous livre ici une des manières d'y répondre. A noter l'utilisation d'UFS dans mon cas.

 

Il existe deux implémentations du directio pour UFS :

  • Option de montage du système de fichiers
  • Modification du flag de l'inode pour un fichier ouvert

La 1er méthode est assez simple à vérifier alors que la 2ème si vous n'êtes pas en train de vérifier l'appel ioctl() au moment ou celui-ci se produit il est plus difficile de le vérifier (je vous renvois à l'article suivant pour plus de précision). Reste la possibilité d'utiliser dtrace mais encore faut'il que le fichier soit accéder pour le savoir.

 

Bon passons un peu aux manipulations... Avec dtrace on peut utiliser la ligne suivante et attendre (longtemps... très longtemps)


# dtrace -qn fbt:ufs:directio_start:entry { printf("%d %s", pid, stringof(args[1]-›i_vnode-›v_path)); }

21350 /zones/zone01/root/ZONE01/oradata13/XXXG02/xxxg02_crontrol_02.ctl
21350 /zones/zone01/root/ZONE01/oradata13/XXXG02/xxxg02_crontrol_01.ctl
^C


Ici le process 21350 accède aux fichiers control* avec le mode d'accès directio. Vérifions maintenant dans le kernel ce qui s'y passe vraiment.

 

# sudo mdb -k
Loading modules: [ unix genunix specfs dtrace zfs sd pcisch ssd fcp fctl mpt emlxs ip mpt_sas hook neti sctp arp usba s1394 wrsm nca lofs md cpc wrsmd fcip random crypto logindmux ptm ufs sppp nfs ipc ]
> 0t21350::pid2proc
3021bbcd3e0
 3021bbcd3e0::pfiles !grep control
 256  REG 000003009dacc2c0 /zones/zone01/root/ZONE01/oradata13/XXXG02/xxxg02_control_01.ctl
 257  REG 000003006520e300 /zones/zone01/root/ZONE01/oradata13/XXXG02/xxxg02_control_02.ctl

> 000003009dacc2c0::print vnode_t

{
    v_lock = {
        _opaque = [ 0 ]
    }
    v_flag = 0x10000
    v_count = 0x5
    v_data = 0x30127d14d10
    v_vfsp = 0x60063e12040
    v_stream = 0
    v_type = 1 (VREG)
    v_rdev = 0xffffffffffffffff
    v_vfsmountedhere = 0
    v_op = 0x6006883ed80
    v_pages = 0
    v_npages = 0
    v_msnpages = 0
    v_scanfront = 0
    v_scanback = 0
    v_filocks = 0x3002740bd40
    v_shrlocks = 0
    v_nbllock = {
        _opaque = [ 0 ]
    }
    v_cv = {
        _opaque = 0
    }
    v_locality = 0
    v_femhead = 0
    v_path = 0x300adca6020 "/zones/zone01/root/ZONE01/oradata13/XXXG02/xxxg02_control_01.ctl"
    v_rdcnt = 0x4
    v_wrcnt = 0x4
    v_mmap_read = 0
    v_mmap_write = 0
    v_mpssdata = 0
    v_scantime = 0
    v_mset = 0
    v_msflags = 0
    v_msnext = 0                     
    v_msprev = 0
    v_mslock = {
        _opaque = [ 0 ]
    }
}

 

Comme évoqué plus haut, il y a deux implémentations possibles pour le directio. Soit le montage du système de fichiers posséde l'option directio (man mount_ufs), soit le flag de l'inode (voir ufs_inode.h).

 

Vérifions l'une et l'autre dans le kernel :

 

> 0x60063e12040::fsinfo -v
            VFSP FS              MOUNT
0000060063e12040 ufs             /zones/zone01/root/ZONE01/oradata13
              R: /dev/vx/dsk/zone01/oradata13
              O: rw,intr,largefiles,logging,noquota,xattr,nodfratime,onerror=panic

 

Nous voyons dans les options de montage qu'il ne sagit pas de la 1er méthode d'implémentation. Voyons la suivante :

 

> 0x30127d14d10::print inode_t !grep i_flag
    i_flag = 0x4260

 

Le flag pour cette inode possède bien le masque directio (0x4000). Suite à l'ouverture du fichier open(), l'application (ici une base de données Oracle) a modifié le mode d'accès directio par l'appel ioctl().

 

A vous de jouer pour vérifier directement dans le kernel, le mode d'accès directio à tous vos fichiers. Dans un prochain article je reviendrai sur ce mode (son fonctionnement, pourquoi l'utiliser, exemple d'un problème de performance).

Published by gloumps - dans kernel
commenter cet article
7 août 2011 7 07 /08 /août /2011 20:34

 

Le 5 avril dernier (cela remonte déjà à quelques temps...), Oracle a organisé en collaboration avec le groupe Guses l'événèment suivant : Tech Day Solaris. Pour toutes les personnes n'ayant pas pu participer à cet évènement, vous trouverez sur mon blog toutes les présentations effectuées lors de cette journée.

 

Un grand merci à Cyril Galibern pour son retour d'expérience sur l'utilisation des containers Solaris 10 (l'utilisation des containers Solaris est géré par son outils OpenSVC : je vous invite à le découvrir si vous ne le connaissez pas).

Published by gloumps - dans divers
commenter cet article
5 décembre 2010 7 05 /12 /décembre /2010 20:59

 

Le 15 décembre prochain aura lieu la deuxième soirée GUSES depuis la rentrée scolaire 2010. William Roche viendra nous présenter la gestion de la mémoire sous Solaris. Inscrivez vous ici...

 

Je tiens à remercier tout particulièrement SUPINFO Paris. En effet depuis plus deux ans, SUPINFO met à notre disposition ses locaux pour nos différentes manifestations.

Published by gloumps - dans divers
commenter cet article
21 novembre 2010 7 21 /11 /novembre /2010 11:40

 

Même si ZFS devient le système de fichiers par défaut pour toutes les nouvelles installations de Oracle Solaris il ne faut pas oublier de maintenir son parc existant. Hier lors d'une intervention sur un serveur Solaris 8, j'ai fait appel à mes souvenirs pour re-encapsuler un disque système sous contrôle VxVM. Ci-joint la méthode, expliquée pas à pas...

 

# Variables disques
DISKSYS=c0t0d0
DISKMIR=c1t0d0

 

# Recup de la taille de la private
PRVLEN=$(devinfo -p /dev/rdsk/${DISKSYS}s0 | awk '{print $4}')

 

# Recup offset private (slice 3)
PRVOFFSET=$(prtvtoc -h /dev/rdsk/${DISKSYS}s2 | grep " ${PRVLEN} " | awk '{print $4}')

 

# Recup offset publique (slice 4)
PUBOFFSET=$(prtvtoc -h /dev/rdsk/${DISKSYS}s2 | grep " ${PRVLEN} " | awk '{print $NF}')
PUBOFFSET=$((OFFSET+1))

 

# Initialisation du disque
vxdisksetup -i ${DISKMIR} prioffset=${PRVOFFSET} privlen=${PRVLEN} puboffset=${PUBOFFSET}

 

# Ajout du disque dans le dg
DGNAME=$(vxdisk -e list | grep ${DISKSYS} | awk '{print $4}')
vxdg -g ${DGNAME} adddisk rootmir=${DISKMIR}

 

#
#sd rootdisk-01  rootvol-01   rootdisk 0        12584484 0         c0t0d0   ENA
#sd rootdisk-02  swapvol-01   rootdisk 54344979 16776423 0         c0t0d0   ENA
#sd rootdisk-03  export-01    rootdisk 12584484 41760495 0         c0t0d0   ENA

 

# Mise en place de la vtoc (identique au disque système)
prtvtoc -h /dev/rdsk/${DISKSYS}s2 | while read VTOC
do
   SLICE=$(print $VTOC | awk '{ print $1 }')
   TAG=$(print $VTOC | awk '{ print $2 }')
   FLAGS=$(print $VTOC | awk '{ print $3 }')
   START=$(print $VTOC | awk '{ print $4 }')
   SIZE=$(print $VTOC | awk '{ print $5 }')

   if [ ${SLICE} != 3 -a ${SLICE} != 4 ]
   then
       vxpartadd /dev/rdsk/${DISKMIR}s2 ${SLICE} 0x${TAG} 0x2${FLAGS} ${START} ${SIZE}
   fi
done

 

# Création des subdisques, plex et synchro
vxprint -g ${DGNAME} -qst | grep ${DISKSYS} | while read CONF
do
    NUM1=$(print ${CONF} | awk '{print $2}' | cut -f2 -d"-")
    NUM2=$(print ${CONF} | awk '{print $3}' | cut -f2 -d"-")
    NUM2=$((NUM2+1))
    VOLUME=$(print ${CONF} | awk '{print $3}' | cut -f1 -d"-")
    OFFSET=$(print ${CONF} | awk '{print $5}')
    SIZE=$(print ${CONF} | awk '{print $6}')

    vxmake -g ${DGNAME} sd rootmir-${NUM1} rootmir,${OFFSET},${SIZE}
    vxmake -g ${DGNAME} plex ${VOLUME}-${NUM2} sd=rootmir-${NUM1}
    vxplex -g ${DGNAME} att ${VOLUME} ${VOLUME}-${NUM2} &
done

 

# Ne pas oublier par la suite le bootblock et de renseigner correctement l'eeprom.

 

Avec quelques petites variantes, on peut faire pas mal de choses intéressantes : génération d'un disque alterné, génération d'un disque système avec des tailles de disques différentes (recopie par ufsdump)... Attention à une chose, le dg de boot doit contenir un et un seul volume avec le tag root. Seul ce volume est bootable (si le fichier system est correctement mis à jour ainsi que la vfstab).

Published by gloumps - dans lvm
commenter cet article
15 novembre 2010 1 15 /11 /novembre /2010 20:54

 

Avis aux amateurs, Oracle Solaris 11 est disponible depuis aujourd'hui : en avant le téléchargement ici. Je viens juste de l'installer sur une VM (sous VirtualBOX) :

 

Solaris11.jpg

 

Il faudra s'habituer au rouge maintenant. Bref l'install s'est correctement passé mais après le reboot mon compte utilisateur ne semble pas être disponible. Bizarre... Après un petit boot en mode single via le cd d'install, je constate tristement que le compte n'est pas présent dans passwd mais par contre le mdp de celui-ci est bien présent dans shadow... Bizarre...

 

Bon je n'ai pas trop le temps de corriger ce soir. On verra demain. Juste une dernière chose, la documentation sur Oracle Solaris 11 est disponible ici.

 

Published by gloumps - dans divers
commenter cet article
13 novembre 2010 6 13 /11 /novembre /2010 20:30

 

Lisa 2010 s'est terminé le 12 novembre dernier. Pour tout ceux (qui comme moi) n'ont pas pu y assister, vous pouvez vous rattraper avec les slides et vidéos disponibles ici. Vous y trouverez différentes présentations couvrant plusieurs domaines : storage, résaux, gestion des logs, sécurité... Bonne lecture.

 

Petite info : cet été s'est tenu un séminaire sysadmin Français (sous l'impulsion de Bruno Bonfils). Vous trouverez un résumé de cette manifestation sur le blog ici. Bon OK, on est très loin du LISA mais c'est déjà un très bon début. Il y a déjà un deuxième séminaire de programmé pour le début de l'année prochaine (info). Pour plus de renseignement vous pouvez aussi consulter le site communautaire sysadmin-fr.

Published by gloumps - dans divers
commenter cet article
11 novembre 2010 4 11 /11 /novembre /2010 17:22

 

Juste pour pour vous dire que les vidéos et slides sur la journée Oracle Solaris 11 (évènement du 9 novembre dernier lors du LISA 2010) sont disponibles ici. Bonne lecture. 

Published by gloumps - dans divers
commenter cet article
7 novembre 2010 7 07 /11 /novembre /2010 17:46

 

Comment faire avec Dtrace pour calculer le nombre de processus initié par un démon sur une période donnée ? Deux providers répondent à cette problématique : le provider profile et le provider tick. La différence entre ces deux providers est la suivante : profile se déclenche à chaque intervalle défini sur chaque CPU alors que le provider tick se déclenche que sur une seule CPU à chaque intervalle (La CPU concernée peut changer).

 

1er exemple avec le provider tick. J'utilise le démon sshd (son pid correspond à 449).

# cat timer-tick.d
#!/usr/sbin/dtrace -qs

proc:::create
/ pid == 449 /
{
        @counts["sshd fork"] = count();
}

tick-1m
{
        exit(0);
}

 

On vérifie le résultat

# ptime ./timer-tick.d
sshd fork  3

real     1:00.473
user        0.205
sys         0.277

 

2ème exemple avec le provider profile. J'utilise toujours le démon sshd (toujours le même pid).

# cat timer-tick.d
#!/usr/sbin/dtrace -qs

 

proc:::create
/ pid == 449 /
{
        @counts["sshd fork"] = count();
}

profile-1m

{
        exit(0);
}

 

On vérifie de nouveau le résultat

# ptime ./timer-profile.d
sshd fork  5

real     1:00.477
user        0.206
sys         0.261

 

Cet article est un petit clin d'oeil à une question posée par un collègue. 

Published by gloumps - dans dtrace
commenter cet article
6 novembre 2010 6 06 /11 /novembre /2010 18:31

 

Jeudi soir dernier (04/11/2010), c'est tenu une soirée GUSES où les deux thèmes suivants ont été abordés :

 

  • Solaris 11 express par Jacques Truchet
  • Oracle Open World par Eric Bezille

 

Les personnes présentes ont pu découvrir en avant première les prochaines fonctionnalités introduites dans la prochaine version d'Oracle Solaris et revenir sur les différentes annonces effectuées lors de l'évènement annuel d'Oracle. Une soirée très enrichissante où les échanges techniques ont été très intéressants (comme souvent). Un grand merci à Jacques et Eric pour leur présentation.

 

Revenons un peu sur le contenu. Il s'agit d'un résumé rapide qui pourra être compléter par la suite avec les présentations une fois celle-ci disponibles.

 

La soirée a commencé par la présentation sur les features Oracle Solaris 11 (nous étions le 1er public à les découvrir, merci GUSES). Il s'agit d'une version basée sur la dernière monture d'OpenSolaris b151 (Il y a donc bien un lien entre OpenSolaris et Oracle Solaris 11 contrairement à ceux qui affirment le contraire). La roadmap d'Oracle Solaris 11 est annoncée jusqu'en 2015 avec une version par an (informations à confirmer). Il s'agit d'une nouvelle version majeure pour l'os Solaris tout comme l'a été la version précédante. Les mots clés pour cette nouvelle version sont les suivants : scalabilité, efficacité, disponibilité, sécurité. La 1er version stable verra le jour mi 2011 et d'ici là une à deux version Express seront distribuées. Le code source ne sera disponible qu'une fois la version stable disponible (changement par rapport à OpenSolaris) et Oracle se garde le droit de distribuer ou non telle ou telle partie du code (ce qui était déjà le cas pour OpenSolaris). Oracle Solaris 11 Express sera prochainement disponible (fin novembre).

 

Les principales nouveautés (dans une 1er temps) de cette nouvelles versions sont les suivantes :

 

  • Gestion des packages / Installation / Déploiement
  • Crossbow
  • Gestion des zones
  • Reprise de l'existant
  • ...

 

La nouveauté la plus importante est la gestion des packages. Oracle Solaris se sépare enfin de sa méthode de "packages / patches" qui nous rendait tous fou notamment avec les zones. Il s'agit d'une rupture technologique qui change complètement notre façon d'administrer ce système. Le gestionnaire de packages se base sur celui déjà disponible sous OpenSolaris : IPS. La méthode d'installation s'en trouve complètement changée : à la poubelle les jumpstarts, jets... Vous avez mis des années à éprouver votre infrastructure de déploiement et bien tout est à refaire. L'installation se fait maintenant par profile depuis un serveur d'archive IPS. Un nouvel outil nommé AI (Auto Installer) permettra de personnaliser nos images. C'est véritablement le changement majeure de cette nouvelle version Oracle Solaris.

 

La deuxième innovation est l'inclusion du projet Crossbow. Ce projet tant attendu dans Oracle Solaris était déjà disponible depuis un certain temps dans OpenSolaris (si vous n'aviez pas joué avec c'est le moment). Il sera enfin possible de virtualiser entièrement une couche réseau pour les zones Solaris. Le temps des configurations complexes pour obtenir différents réseaux pour les zones est maintenant révolu. Crossbow permet de simuler une couche réseau complète pour chaque zone. Pour donner des exemples : chaque zone peut avoir son propre firewall, avoir sa propre route, être serveur cifs, etc... Un système de Load Balancer peut être mise en place sur la globale pour manager le traffic réseaux (beaucoup plus simple que la QOS actuelle).

 

La gestion des zones est différentes : plus de zone sparse uniquement des zones fulls. Pour ne pas occuper trop de place, la dédup ZFS sera mise en place. Les brandx Linux sont supprimés, les brandx Solaris 8 et 9 peut être pas...

 

La reprise de l'existant n'a été oubliée. Une zone Solaris 10 peut être migrée soit dans une brandx Solaris 10 soit dans une zone Solaris 11 après mise à jours. Une zone globale Solaris 10 peut être migrée en brandx Solaris 10. Il faudra sans doute être en Solaris 10u9 pour se faire.

 

A noter aussi, l'encryption pour ZFS (uniquement pour les autres pools que le rpool... pour le moment), la dédup dans ZFS, et d'autres choses... Déception quand même : la suppression de disques dans un pool ZFS n'est pas encore pour cette version.

 

Vivement la sortie de Oracle Solaris 11 !!! Important, Oracle Solaris 10 ne va pas tout de suite à la poubelle, deux autres updates seront disponibles (courant 2011 et courant 2012). Ces nouvelles versions n'incluront pas de nouveautés (par exemples : IPS, Crossbow, ...). Encore merci à Jacques pour cette présentation.

 

En deuxième partie, Eric est revenu sur les différentes annonces d'Oracle faites pendant l'Oracle Open World. Il a notamment insister sur le fait qu'Oracle gère maintenant une couche complète : du matériels aux logicielles (d'où leur slogan du moment : Hardware and Software, Engineered to work together). Les tests sont donc menés de bout en bout de la chaîne ce qui constitue une innovation majeure dans la mise à disposition d'architectures complexes (innovation pour Oracle et Sun, ce l'est moins pour IBM). Cette nouvelle méthode de travail à notamment porter ces fruits : les benchs des derniers serveurs T3 sont éloquents surtout lorsqu'ils sont associés avec des applications Oracle (ce qui est normal vous allez me dire...).

 

L'association du matériel et du logicielle prend toute sa splendeur dans les deux offres suivantes : l'Exadata et l'Exalogic. L'Exadata, déjà bien connu maintenant, est un monstre de performances pour les environnements de bases de données type datawarehouse. Il sera prochainement disponible dans une nouvelle version X2-8. Son petit frère : l'Exalogic, cette fois-ci pour les applications vient compléter l'offre. Ce serveur est le socle pour la base du Cloud d'Oracle. A noter que ces deux monstres seront disponibles aussi bien sous Oracle Linux Unbreakable que sous Oracle Solaris 11.

 

La gamme SPARC continura... Ceux qui pensaient qu'Oracle allait supprimer le SPARC : eh bien vous aviez tort (enfin pour le moment). La gamme se décline avec deux processeurs : la série T et la série M. La roadmap se prolonge jusqu'en 2015 avec des évolutions aussi bien sur la puissances des CPUs que sur le nombre de threads.

 

La gamme Storage and Tape n'est pas en reste. Avec l'arrivée notamment du Sun ZFS Storage 7420 qui avec sa capacité de stockage de 1PB nous laisse rêveur... Ne surtout pas oublier aussi la Sun Flash Accelerator F20 qui offre de multiples possibilités de performances notamment vis à vis des bases de données Oracle 11g.

 

Il y a plusieurs autres annonces lors de cette évènement (voir l'article), mais je blogue uniquement sur ce qui a été évoqué lors de la soirée. Merci à Eric pour ce retour très intéressant. J'ajoute le lien suivant sur la stratégie Oracle Sun disponible ici.

 

Comme vous avez pu le lire, les soirée GUSES sont riches d'informations. Venez nombreux lors de la prochaine soirée, où cette fois-ci William Roche va échanger sur la gestion de la mémoire dans Solaris. Le sujet est très alléchant, alors soyez présent. L'inscription est ici.

Published by gloumps - dans divers
commenter cet article