Géotechnique EGC3 005
Géotechnique EGC3 005
Géotechnique EGC3 005
2.1.1 La pédologie..........................................................................................................7
2.1.2 La géologie............................................................................................................8
2.1.3 La géotechnique....................................................................................................9
2.3.2 Quand la nappe s’invite …elle fait parler d’elle et peut devenir inquiétante voire
préocupante........................................................................................................................37
3 Sols et Fondations..............................................................................................................44
3.5.1.1 Préchargement.........................................................................................................61
3.5.1.2 Compactage..............................................................................................................64
3.5.1.8 drainage des couches de sol à forte teneur en eau ou à faible perméabilité............77
3.5.2.1 Criblage.....................................................................................................................80
3.5.2.2 Concassage...............................................................................................................81
3.5.2.3 Mélange....................................................................................................................82
3.5.3.6 Springsol®.................................................................................................................98
4.2.3.3 scissomètre.............................................................................................................145
5.2 Propriétés ou paramètres des sols pour les caractériser et les classer......................222
5.2.2 répartition des grains obtenue par voies sèche ou humide avec des moyens plus
ou moins complexe..........................................................................................................222
5.2.2.1 Granulométrie :......................................................................................................222
5.2.2.2 Tamisage :...............................................................................................................223
5.2.2.5 La sédimentométrie................................................................................................233
5.2.2.6 Autres méthodes pour analyser la distribution des grains par diamètres
caractéristiques......................................................................................................................247
6.1 Proctor......................................................................................................................327
GEOTECHNIQUE
&
MECANIQUE
DES
SOLS
1 Préambule et introduction
Avant de lire cet ouvrage qui sera toujours en évolution tant que le rédacteur jugera utile de
s’en servir pour transmettre des connaissances géotechniques à ceux qui en ont besoin ou
curieux d’apprendre. Je tiens à remercier et à rendre hommage à Monsieur Jean-Louis
BASSAL intervenant professionnel à l’ISBA, m’a initié à la géotechnique lorsque j’étais
ingénieur élève.
Par
ailleurs,
les observations et les résultats des essais sur le
terrain, d’autre part, et les résultats des essais de
laboratoire, d’autre part, servent également à
proposer, retenir et justifier des solutions
techniques plus ou moins élaborées pour réaliser
les terrassements. Le choix de ces techniques, en
cas de complexité doit si possible être fait en
collaboration avec des sociétés spécialisés pour
réaliser ce type de travaux.
facilitent les simulations aux éléments finis permettent de mieux conceptualiser les
comportements prévisibles et l’interaction entre les couches de sols renforcées ou non, les
fondations et l’ouvrage. Cependant, il faut rester très critique sur les données et hypothèses
formulées pour apprécier le plus justement possible ces résultats obtenus avec des rendus
visuels très réalistes.
Les géotechniciens qui réalisent les études de sols et éditent des rapports d’étude de sols sont
missionnés soit par la Moa (maîtrise d’Ouvrage), soit par la MOE (Maîtrise d’œuvre), soit par
les pouvoirs économiques (entreprises), soit par des assureurs ou soit pour des conseils ou
expertises sont missionnés. Ces missions sont encadrées et définies comme suit :
Elle a pour but de concevoir et justifier les ouvrages géotechniques. Elle donne
une synthèse mise à jour du site, fournit les méthodes d’exécution les valeurs
seuils associés, les notes de calcul de dimensionnement optimisé pour les
ouvrages géotechniques et pour toutes les phases de construction. Si nécessaire, il
pourra être établi un programme d’investigations complémentaires.
G2 DCE-ACT
La mission G2 PRO peut être complétée par la phase DCE/ACT pour le choix de
l’entreprise et de la mise au point des contrats.
La pédologie est une science qui a pour objectif l’étude de la pédogenèse : formation et
évolution des sols, notamment au travers de plusieurs taxonomies des sols.
L'enjeu de cette science est reconnu lors du Sommet de la Terre de 1992 qui développe la
notion de sol comme compartiment de l'écosystème terrestre, à l'interface entre biosphère et
lithosphère, qu'il faut protéger.
2.1.2 La géologie
La géologie est la science dont le principal objet d'étude est la Terre, et plus particulièrement
la lithosphère. Discipline majeure des sciences de la Terre, elle se base en premier lieu sur
l'observation, puis établit des hypothèses permettant d'expliquer l'agencement des roches et
des structures les affectant afin d'en reconstituer l'histoire et les processus en jeu. Le terme
« géologie » désigne également l'ensemble des caractéristiques géologiques d'une région, et
s'étend à l'étude des astres.
La figure ci-contre
illustre les résultats
obtenus suite à une
étude géologique en
bordure de littoral
vendéen.
La géologie moderne
prend forme à partir
du XVIIe siècle, du désir de comprendre la structure de la Terre et d'un certain nombre de
mécanismes à l'origine de phénomènes naturels. L'évolution des théories de la géologie est
très liée à l'évolution des théories de la cosmologie et de la biologie, mais aussi à
l'amélioration croissante des techniques et des outils utilisables à partir de la fin du
XIXe siècle. Le XXe siècle est le siècle de la mise en place des grandes théories régissant la
géologie moderne, avec le développement du modèle de la tectonique des plaques dans les
années 1960, mais aussi de l'amélioration des techniques d'observation, qui permettent de
nombreuses avancées, et du développement de l'application de la géologie dans les domaines
de l'économie et de l'industrie.
La géologie est une science comprenant de nombreuses spécialités et fait appel aux
connaissances de domaines scientifiques variés, tels que la biologie, la physique (mécanique
des fluides, pétrochimie...), la chimie, la science des matériaux, la cosmologie, la
climatologie, l'hydrologie… Les méthodes d'études et les connaissances géologiques
s'appliquent dans de nombreux domaines sociétaux, économiques et industriels, comme
l'exploitation de matières premières, le génie civil, la gestion des ressources en eau, la gestion
de l'environnement ou la prévention des risques naturels.
2.1.3 La géotechnique
Dans la pratique actuelle, il est indispensable d’y recourir lors de l’étude, la construction, la
maintenance et la réparation de tout type d’aménagement et d’ouvrage - route, voie ferrée,
canal, aménagement de montagnes, de cours d’eau et du littoral, pont et viaduc, tunnel,
barrage, puits et forage, carrière, immeuble, etc., l’exécution de tout type de travail -
terrassement, fondation, drainage… dans tout type de site - terrestre, fluvial et maritime, libre
ou occupé.
C’est une technique empirique qui est aussi vieille que l’humanité et connue de toutes les
civilisations, elle évolue sans cesse selon nos besoins, nos connaissances et nos moyens. Sa
pratique pragmatique a longtemps reposé sur des procédés locaux très efficaces ; son
évolution rationnelle a débuté vers la fin du XVIIe siècle ; à partir de la deuxième partie du
XIXe siècle, elle est progressivement devenue scientifique ; depuis, elle navigue entre
induction / expérience / probabilisme et déduction / calcul / déterminisme ; son état actuel est
un amalgame instable de ces deux points de vue.
Les principes de la géotechnique sont simples mais leur expression est compliquée, car ils
procèdent à la fois de la géologie et de la mécanique, de l’observation / expérimentation et du
calcul, du raisonnement inductif et du raisonnement déductif. À partir du terrain, la géologie
étudie la morphologie et le comportement des géomatériaux réels, roches, sols et eaux
constituant le sous-sol d’un site, qui sont tangibles, discontinus, variables, hétérogènes,
anisotropes, contraints, pesants et bien plus que cela : la nature les a faits ainsi et on ne peut
que le constater. À partir de sondages et d’essais, la géomécanique les réduit à des milieux
virtuels de modèles qui doivent être continus, immuables, homogènes, isotropes, libres,
parfois non pesants et rien que cela : le traitement mathématique l’impose.
Pour passer des premiers aux seconds, de la réalité à l’image, il suffit d’un peu d’imagination
et d’usage ; pour repasser ensuite et nécessairement des seconds aux premiers, des
échantillons au site, il faut ajouter que les géomatériaux ne sont pas désordonnés, que leurs
hétérogénéités et leurs comportements ne sont pas aléatoires, mais qu’au contraire, ils sont
structurés de façon tout à fait cohérente, ce qui ramène à la géologie : tout résultat d’essai et
de calcul géomécanique, incompatible avec une observation géologique, est inacceptable en
géotechnique.
En effet, ne pas tenir compte des particularités géologiques d’un site risque d’entraîner à plus
ou moins long terme des dommages, voire des accidents parfois très graves au chantier et/ou à
l’ouvrage : la majeure partie des dégâts et accidents géotechniques sont dus à l’inadaptation
D’un point de vue historique, le terme de « géotechnique » est attesté pour la première fois à
la fin du XIXe siècle, peut-être dans sa version anglaise, « geotechnics », ou française,
« géotechnique », sans doute dans la désignation de la « Commission suisse de
géotechnique », créée en 1899, rattachée à l’Académie suisse des sciences naturelles en 1909.
Actuellement à ce terme ont été rajoutés la géologie de l’ingénieur et la mécanique des sols.
Cependant, la géotechnique est devenu un terme courant dans le langage du BTP, mais son
champ n'est toujours pas fixé.
particulièrement ingrat d'un point de vue géotechnique, une lagune dont le sous-sol s’affaisse
en permanence, ce qui impose de tout y construire sur « fondations spéciales ». L’actuelle
école géotechnique néerlandaise est directement issue des efforts séculaires qu’ont dû
prodiguer les Frisons pour aménager leur province sans cesse disputée à la mer. L'Autrichien
Terzaghi avait appris de ses prédécesseurs comment bien construire sur les alluvions
argileuses compressibles de la vallée du Danube…
Durant le XVIIe siècle, la
défense des places fortes
confrontées à la puissance
de l’artillerie a obligé les
ingénieurs militaires à
construire des remparts
avec ou sans fossés
(comme illustré ci-contre)
de plus en plus hauts et
épais en terre perreyée
(parement visible revêtu de
pierres sèches) ; pour cela,
Vauban fit établir et diffuser par l’abbé Duroi, des règles empiriques de stabilité des remblais
et des murs de soutènement. De manière abusive, il est considéré comme l’initiateur de la
mécanique des sols qui, pour encore deux siècles, sera une mécanique des remblais
empirique.
La mécanique des sols est la plus ancienne, la plus connue et la plus pratiquée des branches de
la géomécanique, discipline mathématique de la géotechnique, pour l’étude du comportement
théorique des formations détritiques meubles de la couverture terrestre, sous l’action d’efforts
naturels d’érosion (glissements de terrain...), ou induits lors de la construction de la plupart
des ouvrages du BTP (terrassements, fondations, drainage...).
Les « sols » de cette mécanique - mélanges divers et variés d’argiles, sables, graves... et eau -,
sont des milieux virtuels continus, immuables, homogènes, isotropes, libres, parfois non
pesants (sans contrainte) et rien que cela ; ce sont les modèles de matériaux réels de ces
formations, tangibles, discontinus, variables, hétérogènes, anisotropes, contraints, pesants et
bien plus que cela. Leurs formes géométriques et leurs comportements mécaniques doivent
donc être compatibles avec les formes et les comportements naturels des géo-matériaux réels
que décrivent deux disciplines géologiques, la géomorphologie et la géodynamique. Ainsi, la
mécanique des sols, la géomorphologie et la géodynamique sont trois disciplines
indissociables, inter-dépendantes et complémentaires de la géotechnique qui étudie la sub-
surface terrestre sur laquelle notre action directe est possible, pour en permettre
l’aménagement et/ou l’exploitation.
Les sols doivent être caractérisés et classés au moyen de plusieurs paramètres physiques,
granulométrie, plasticité, porosité, humidité, consistance... qui permettent de les désigner, de
les décrire et de prévoir leur maniabilité de terrassement. Ils sont également caractérisés au
moyen de plusieurs paramètres mécaniques, module d’élasticité, angle de talus, cohésion,
compressibilité, perméabilité... qui sont les variables des calculs de stabilité, tassements,
drainage... d’ouvrages divers. Tous ces paramètres, plus ou moins indépendants, doivent être
mesurés spécifiquement au moyen d’essais in situ et/ou de laboratoire sur échantillons
prélevés au cours de sondages réalisés dans les sites étudiés, aux emplacements des ouvrages
projetés.
Dans son ouvrage fondateur de la mécanique des remblais, ancêtre de la mécanique des sols,
Essai - Sur une application des règles de maximis et de minimis à quelques problèmes de
statique, relatifs à l'architecture, Coulomb exprime la première « loi » géomécanique, dite
maintenant « loi de Coulomb », en précisant avec une prudence malheureusement oubliée :
« Ce mémoire est destiné à déterminer, autant que le mélange du calcul et de la physique
peuvent le permettre, l'influence du frottement et de la cohésion dans quelques problèmes
de statique »... « pour la facilité de ses applications à la pratique ».
Comme le rappellent Terzaghi et Peck dans la préface de leur ouvrage traduit en français
« Mécanique des sols appliquée au BTP » la pose, l’étude et la résolution de tout problème de
mécanique des sols imposent d’innombrables hypothèses simplificatrices de formes et de
comportements conduisant à des résultats qu’il est nécessaire de critiquer et d’affecter d’un
« coefficient de sécurité », car ce ne sont que des ordres de grandeur. Et cette prudence est
toujours d’actualité : la majeure partie des dommages et accidents aux parties d’ouvrages en
relation avec le sol et le sous-sol résultent de l’inadaptation de l’ouvrage au site due à la
méconnaissance de la géologie du site et non à des erreurs de calculs mécaniques : tout
résultat d’essai et/ou de calcul de mécanique des sols incompatible avec une observation
géologique, est inacceptable.
D’un point de vue historique, l’étude rationnelle de la stabilité des talus de terre et des murs
de soutènement ou « mécanique des remblais » a débuté vers la fin du XVIIe siècle quand la
défense des places fortes confrontées à la puissance de plus en plus grande de l’artillerie a
obligé les ingénieurs militaires à construire des remparts de plus en plus hauts et épais en terre
perreyée - Vauban, Profil général pour les murs de soutènement, 1687.
En 1720, Forest de Belidor a montré expérimentalement que la poussée excessive d’un coin
de remblais peut être la cause de la ruine d’un mur de soutènement. En 1727, Couplet a établi
le calcul empirique de la poussé de ce coin à surface plane. En 1773, Coulomb a assimilé la
condition de stabilité de ce coin de poussée à celle d’une charge sur un plan incliné dont il
avait établi la loi pour rationaliser le charroi d’artillerie ; il a défini la cohésion et l’angle de
frottement d’un remblai, et établi la loi de leurs relations dite loi de Coulomb. En 1846, à
propos de barrages en terre et de remblais de canaux et chemins de fer, Collin a établi que la
cohésion, indépendante de l’angle de frottement, est fonction de la compacité et de la teneur
en eau du remblai et que la surface du coin est un arc de cycloïde.
Dans le courant du XIXe siècle jusqu’au début du XXe siècle, la mécanique des remblais s’est
enrichie pour devenir la mécanique des sols. Ainsi, de très nombreux ingénieurs mécaniciens -
Rankine, Levy, Boussinesq, Massau... ont calqué l’étude des massifs de sols, géomatériaux
naturels meubles, sur celle des remblais pour étudier la stabilité des talus et des fondations
d’ouvrages, en développant des méthodes de calcul trigonométrique et/ou infinitésimal plus
ou moins différentes selon leurs préoccupations et les hypothèses qu’ils retenaient pour bâtir
leurs théories ; ils l’ont fait à partir de la loi de Coulomb et de la représentation graphique de
l’état des contraintes dans un massif par Mohr, en négligeant plus ou moins la cohésion,
« constante » difficile à manier et en conservant le plan comme surface de glissement.
S'inspirant d'une idée de Collin sur le caractère curviligne du faciès de rupture des sols
cohérents, Hultin, Krey, Petterson et Fellenius adoptent l’arc de cercle comme ligne de
glissement, encore utilisé pour l’étude des grands glissements.
Le principe de cet essai illustré ci-contre consiste à appliquer différentes pressions à une
cellule positionnée dans un forage et à mesurer sa variation de volume.
Depuis le XVIIIe siècle, la mécanique des remblais puis la mécanique des sols ont
successivement utilisé des méthodes de calcul de plus en plus perfectionnées, d’abord
graphiques, puis trigonométriques, analytiques et enfin numériques qui actuellement sont
utilisées plus ou moins conjointement.
Malheureusement, les mécaniciens du sol préfèrent recueillir des données de terrain au moyen
de sondages, d’essais in situ (pénétromètre, pressiomètre...) et de laboratoire (œdomètre, essai
triaxial...) et négligent généralement les observations géologiques de terrain,.
Ils modélisent suivant la mécanique des sols classique, fondée sur la loi de Coulomb, le
comportement à des efforts externes variables d’un milieu minéral, monophasique, sans eau
libre afin d’adapter au mieux le modèle de Terzaghi pour le comportement d’un milieu
biphasique minéral aquifère qui est beaucoup plus réaliste.
propre poids dans la nature ou sous celle d’une charge extérieure, un tel matériau se consolide
de plus en plus à mesure que le temps passe : son indice des vides et sa teneur en eau
diminuent, sa densité et sa résistance mécanique augmentent, sa perméabilité diminue. La
déformation est dite pseudo-élastique : le rapport contrainte/déformation n’est pas constant
comme le module d’Young du comportement élastique linéaire ; il dépend de la pression
interstitielle et de ses variations qui, elles, dépendent de la perméabilité du matériau ; la durée
du tassement mais non de son intensité qui dépend également de la perméabilité.
Lorsque le sol n’est pas suffisamment consolidé, sous l’action d’une charge additionnelle, la
consolidation va être accélérée et d’importants tassements plus ou moins rapidement peuvent
être constatés. Sur cette figure, l’ouvrage s’est fissuré après une augmentation des tassements
Pour arrêter ce phénomène et freiner les circulations d’eau, des injections sont réalisées.
La théorie de l’hydraulique souterraine est fondée sur la loi de Darcy ; elle stipule que dans un
matériau granulaire perméable, la vitesse d’écoulement V (Q/S) et le gradient hydraulique i
(Δh/L) sont linéairement liés par une
constante empirique et composite, la
perméabilité k (V = k*i) qui dépendrait
seulement du matériau aquifère. Des
extensions de la loi de Darcy aux faibles
perméabilités ont été proposées par
Forcheimer et Richards.
Ce tableau permet
visuellement d’établir la
relation entre la
perméabilité, la classe du
sol et l’infiltration
qualitative.
1 2 3 4
1. Soit le sol est homogène est suffisamment consolidé pour ne pas tasser du moins de
manière significative
2. Soit le sol présente des zones hétérogènes moins bien consolidées et l’ouvrage subit
des tassements différentiels qui peuvent induire des fissures ou des rotations
3. Soit le sol n’est pas assez consolidé et le drainage est très difficile compte des sols en
présence, le tassement est effectif mais raisonable
4. Soit le sol n’est pas assez consolidé et le drainage des eaux est possible, le tassement
général est préjudiciable.
C’est également la partie de la croûte terrestre, à l'état naturel ou aménagée, sur laquelle on se
tient et se déplace ou tous les matériaux qui existent à la surface de l’écorce terrestre qu’il
s’agisse
o de roches
o ou de matériaux meubles comme les sables ou graves qui sont pulvérulents
o ou cohérents comme les argiles ou les tourbes.
Ces origines variées de fusion partielle, ainsi que les différents processus affectant la vie du
magma et les modalités de mise en place, sont à l'origine de la richesse des roches
magmatiques, comme en témoigne l’illustration ci-dessus, ce qui complique leur
classification.
Ce
Cette classification repose sur les constituants chimiques des roches sédimentaires.
les roches carbonatées, d'origine non terrigène, parmi lesquelles il est pertinent de
distinguer les roches carbonatées bioclastiques et les roches carbonatées physico-
chimiques ;
les roches siliceuses ;
les roches carbonées ;
les roches évaporitiques ou roches salines : la halite, dénommé aussi sel gemme ou
chlorure de sodium, le gypse, l'anhydrite, la sylvine, la sylvinite, la carnallite et autres
sels de potasse et de magnésium, les nombreux sulfates tels que la thénardite, la
mirabilite, la célestine, la barytine… ;
les roches phosphatées ;
les roches ferrugineuses ;
les roches glauconieuses ;
les roches alumineuses, dont les bauxites…
Cependant, certaines formations sont de plusieurs origines et toutes les formes intermédiaires
entre les différents critères de classement se rencontrent dans les affleurements naturels.
C
Etudes techniques du Génie Civil - 20 -
GEOTECHNIQUE & MECANIQUE DES SOLS HGi 2022/23
n'est utilisé que lorsque la formation du sédiment ne peut pas être clairement attribuable à un
autre processus géologique. Cela inclut notamment les sédiments fluviaux (ou fluviatiles, de
rivière ou fleuve) déposés par une rivière ou un fleuve et les sédiments d'origine glaciaire
(moraines, tills, tillite) déposés par l’eau de fonte de glacier et également les sédiments
lacustres. De manière plus précise, une zone alluvionnaire, comme un gisement alluvionnaire,
est composée d'alluvions, d'éluvions, d'illuvions, de colluvions. L’échantillon de matériau issu
d'une telle zone est l'alluvionnaire. Il s'agit de colluvions lorsque l'accumulation d'alluvions
finit par former un barrage. Les diluvions (dépôt diluvial ou diluvium) correspondent à des
dépôts superficiels formés par les inondations. Les éluvions, ou dépôts éluviaux, sont les
dépôts géologiques des sols qui sont dérivés in situ par les intempéries. Et les illuvions sont
formés par un matériau déplacé verticalement à travers un profil de sol, d'une couche à l'autre,
par l'action des eaux de pluie. Un gisement alluvionnaire fait référence à des dépôts de nature
minérale qui peuvent alors contenir de nombreux minerais précieux tels que l'or et le platine
et une grande variété de pierres précieuses. Les lieux alluvionnaires sont également propices à
la formation de zones humides appréciées des plantes hélophytes ou lacustres à cause de leur
porosité importante et de leur faible imperméabilité. L’alluvionnement, ou dépôt alluvial,
désigne le processus d'accumulation d'alluvions résultant du ralentissement de la vitesse
d'écoulement des eaux. Il est à noter que les dépôts alluviaux se forment lorsque le débit dans
un cours d’eau, typiquement intermittent, ralentit au point de devenir insuffisant pour assurer
le transport de la matière. La quantité d'alluvions transportée par un cours d'eau dépend donc
principalement de la variation du débit dans le cours d’eau, du type de sol et de son
importance. Par exemple, le très important fleuve Jaune transporte 796 milliards de tonnes
d'alluvions chaque année. Un cône de déjection correspond à un dépôt alluvial qui a la forme
d'un éventail.
Un sol peut être constitué d’argile, de limon, de sable, de gravier et d’autres éléments plus ou
moins désirables, et suivant le pourcentage de chacun d’eux, de leur nature et de leur
comportement, l’ensemble sera plus ou moins bien réceptif à ce que le projet va lui imposer
au cours d’un certain temps.
De manière simplifiée, il est possible de distinguer parmi les formations meubles, les sols
plutôt pulvérulents et les sols plutôt cohérents.
Les premiers, les sols meubles pulvérulents ou grenus, d>20µm, sont constitués de grains
libres entre eux, quelque soit la teneur en eau de ces sols.
Les seconds, les sols meubles cohérents ou fin, d≤20µm sont constitués de grains très fins
soumis à des forces d'attractions intergranulaires (force électrique, force de Van Der Waals ,
etc.) qui influencent le comportement de ces formations. Dans ce cas, le sol présente de la
cohésion qui varie en fonction de la teneur en eau.
Les sols cohérents, argile ou limon, peuvent être dans trois états différents : solide, plastique
ou liquide en fonction de la teneur en eau. La limite de retrait caractérise le début où les points
de contact entre particules sont maximum et le volume du sol ne varie plus malgré le départ
d'eau. Cette limite de retrait est une propriété de chaque sol et est liée à la minéralogie, à la
granularité et à l'assemblage textural.A partir de ce point, le sol présente souvent des fissures
et des fentes de dessication. La limite de plasticité correspond à la teneur en eau à laquelle le
matériau passe de l’état solide à l’état plastique et la limite de liquidité correspond à la teneur
en eau à laquelle le matériau passe de l’état plastique à l’état liquide. L’indice de plasticité qui
Le tableau ci-
dessous permet de
différencier les
différents maté-
riaux cohérents.
Pour les matériaux très fins, contenant plus de 35% de passant à 80µm, le guide GTR
distingue 4 classes de sols :
Il est à noter que les sols de classe A3 ou A4 (à caractère gonflant) ne peuvent pas être
réutilisés comme remblais à cause de leur instabilité.
A ces formations naturelles plus ou moins altérées parles activités humaines ou par des
actions naturelles s’ajoutent des composants issus de l’activité humaine et des industries. Les
sols peuvent être ainsi pollués. La notion de pollution du sol désigne toutes les formes de
pollution touchant n'importe quel type de sol, notamment agricole, forestier et urbain. La
distribution horizontale et verticale des polluants (métaux et métalloïdes notamment) n’est pas
stable : elle varie dans l'espace et le temps selon les conditions de sol et de température, et
selon le type et la forme chimique du polluant, et selon le degré de bioturbation du sol. Un sol
pollué peut devenir à son tour une source de diffusion de polluants dans l'environnement. Un
sol est dit pollué quand il contient un ou plusieurs polluants ou contaminants susceptibles de
causer des altérations biologiques, physiques et chimiques. Les impacts peuvent être directs
ou indirects ; locaux et stabilisés ou étendus et mobiles (mobilité dépendant souvent de
paramètres liés à l'eau, aux envols de poussière et au pH du sol ou du substrat polluant ou de
phénomènes de bioturbation) ; immédiats ou différés ; de surface, profond ou de
« subsurface » (avec dans chaque cas des impacts écotoxicologiques différents). Par ailleurs, à
cause des retombées aériennes diffuses de l'industrie, du chauffage, des transports, de
l'agriculture, des essais nucléaires ou de l'accident de Tchernobyl, aucun sol européen ne peut
être considéré comme indemne de pollution à l'état de trace. Des sites pollués très au-dessus
de la moyenne ou suspectés de l'être sont répertoriés dans tous les pays de l'UE (dans Basias
& Basol en France), en vue de les dépolluer, de les suivre ou d'éviter de les utiliser pour
certaines activités.
Des dépotoirs ou décharges existent depuis la Préhistoire et leur étude par les archéologues a
révélé beaucoup de choses sur la vie à toutes les époques. Les décharges se sont multipliées
avec la révolution industrielle et plus encore avec la société de consommation (décharges
industrielles, décharges municipales et sauvages). Souvent situées en plein air, il en existe
aussi dans des lieux souterrains et plans d'eau, ce qui est problématique car ces sites sont mal
répertoriés et présentent des risques pour la protection de l'environnement naturel ainsi que la
sécurité et l'hygiène des populations résidant à proximité. En France comme dans les pays
développés, la réglementation sur la récupération des déchets s'est progressivement renforcée.
Elle interdit les décharges sauvages, et depuis la fin du XXe siècle impose d'éviter de recourir
aux décharges publiques au profit du recyclage, de l'incinération, de l'écoconception. En
dernier recours, peuvent être utilisées des décharges, notamment appelées centres
d'enfouissement techniques (CET), qui doivent répondre à des normes de protection de
l'environnement (imperméabilisation, surveillance, traitement du méthane et des lixiviats, etc.)
pour protéger l'air et les nappes phréatiques, avec couche étanche et repaysagement en fin
d'activité. Dans certains pays, dont la France, seuls des déchets ultimes devraient à terme être
enfouis dans des décharges appelées « centres de stockage des déchets ultimes » (CSDU), au
regard de l'environnement. Mais de nombreux retards d'application de la loi sont constatés.
Certaines décharges sauvages ne sont toujours pas identifiées polluantes ou non.
Dans certaines régions du sud-ouest de la France, le charbon de bois naturel a été exploité.
Depuis, le lignite, "c'est du charbon de bois en formation qui se trouve parfois à un mètre de
profondeur et quand le feu l'atteint, il se nourrit de l'oxygène déjà emprisonné dans la roche
et ça peut se consumer en souterrain pendant des mois et même des années", explique Jean-
Louis Dartiailh, le maire d'Hostens suite aux reprises de feu en Gironde
Ailleurs, ce sont les terrils, montagne de déchets des carrières d’exploitation du charbon
minier qui prennent feu. « Un nouveau feu de terril s’est déclenché dans la soirée de
dimanche à lundi, au marais de Fouquières. De nombreux moyens de secours se sont
déployés pour venir à bout des flammes qui ont finalement ravagé environ trois hectares de
végétation. Depuis le début de l’été, c’est au moins le cinquième incendie de ce type dans
l’arrondissement de Lens. » article publié le 29/08/2022 dans le journal local « La voix du
Nord ». Ce ne sont pas les seuls déchets industriels enfouis qui menacent de s’échauffer et de
rentrer en incandescence.
La géomécanique réduit tous les géomatériaux naturels à trois milieux types de "sols", les sols
meubles plus ou moins frottants et/ou plastiques et les roches dures plus ou moins élastiques.
Les sols sont des géomatériaux meubles, grave, sable et argile éventuellement mêlés en
quantités variables, dont la cohésion est faible ; elle diminue jusqu’à disparaître (liquéfaction)
par accroissement de la teneur en eau. Les roches sont des géomatériaux compacts et durs,
dont la résistance à la compression simple est supérieure à quelques MPa ; elle diminue et/ou
disparaît par altération physique (hydratation), chimique (dissolution) et/ou mécanique
(fragmentation). L’état et le comportement mécanique d'un sol dépendent essentiellement de
sa teneur en eau ; ceux d’une roche, de son degré d’altération, de fissuration et de fracturation.
Un milieu de sol mécanique est composé de matière minérale, d’eau et d’air. Sa composition
minérale est immuable ; sa teneur en eau est variable ; l'influence de l'air est négligée ; sa
structure minérale est déformable. Il est caractérisé par des paramètres physiques et
mécaniques, mesurés par des essais in situ et/ou sur échantillons qui sont des expériences de
validation d'application des théories mécaniques correspondantes. La plupart de ces essais
sont normalisés.
Les paramètres physiques d’un sol se mesurent spécifiquement le plus souvent en laboratoire
sur échantillons éventuellement remaniés par des essais d’identification.
La granulométrie : par tamisage et/ou sédimentométrie, permet d’établir par pesage les
proportions de blocs - cailloux - graviers - sable grossier - sable fin - limon ou silt – argile
d’un échantillon de sol. Sa composition est ainsi établie et il est désignée par la présentation
des résultats de ces mesures sur une courbe semi-logarithmique ou un diagramme
triangulaire ;
Différents poids et volumes sont obtenus par pesage ou au moyen de récipients étalonnés
avant et après dessiccation d’un échantillon à l’étuve. Il s’agit principalement du poids ou
masse volumique - ou plus simplement densité ; de la teneur en eau : rapport en % du poids de
l’eau libre au poids sec ; de l’indice des vides : rapport du volume des vides au volume des
pleins ; des limites d'Atterberg : l’état des limons et des argiles varie de la solidité à la
liquidité relatives quand la teneur en eau augmente ; la carte de Casagrande permet de
caractériser la plasticité d’un sol et de le désigner selon sa composition ; de la limite de
plasticité est la valeur de la teneur en eau du passage de l'état « solide » à l'état plastique ; de
la limite de liquidité est la valeur de la teneur en eau du passage de l'état plastique à l'état
« liquide » ; de l’indice de plasticité est la différence des teneurs en eau liquidité-plasticité.
Les paramètres mécaniques sont les variables des formules de calcul de stabilité des talus,
fondations... Ils sont spécifiques d’une théorie, d’une méthode de calcul et d’un essai
(matériel et processus), de sorte qu’il n’est pas possible d’établir leurs corrélations
numériques pour un même sol. Ils sont mesurés spécifiquement sur échantillons dits
« intacts » ; qui dans les faits ne le sont pas car l’échantillon est extrait du milieu naturel.
➀ Le récipient est complètement rempli avec de l'eau, et le trou est fermé (sol entièrement
saturé).
➁ Une charge est appliquée sur la couverture, alors que le trou est encore fermé. À ce stade,
l'eau, par son incompressibilité, reprend seule la charge appliquée (Principe de Pascal).
➂ Dès que le trou est ouvert, l'eau commence à s'écouler par le trou et le ressort se
comprime : cela modélise le drainage de l'eau interstitielle par soulagement de la pression
excédentaire.
➃ Après un certain temps, le drainage de l'eau s'interrompt car le ressort fait équilibre à la
charge appliquée. (Pleine dissipation de pression excédentaire d'eau interstitielle. Fin de la
consolidation)
Cette méthode suppose que la consolidation se produit seulement dans une dimension. Des
mesures en laboratoire permettent de tracer le diagramme des déformations ou l'indice des
vides avec la disposition des pressions sur une échelle logarithmique. La pente du graphique
donne l'indice de compression ou indice de ré-compression. Le tassement par consolidation
primaire d'un sol normalement consolidé peut alors être déterminée par :
[2_1]
avec
Cc peut être remplacé par Cs (l'indice de gonflement ou de décompression) pour l'usage dans
les sols sur-consolidés où la contrainte effective finale est inférieure à la contrainte effective
de préconsolidation σ'p. Quand la contrainte effective finale est plus grande que la contrainte
effective de préconsolidation, les deux équations doivent être employées en association pour
modeler la partie de récompression et la partie vierge de compression du processus de
consolidation, comme suit :
[2_2]
[2_3]
avec
avec
EM module pressiométrique
pl pression limite
Le scissomètre est un instrument constitué en général d’une tige métallique avec des pales a
son extrémité qui est enfoncée dans le sol en limitant les remaniements inévitables. Les pales
sont mises ensuite en rotation par un couple de torsion dans l'axe de la tige si possible avec
une vitesse angulaire constante: la rupture du sol est progressive. La vitesse de cisaillement
des sols influe beaucoup sur les résultats des essais. Cet essai est utilisé en mécanique des sols
pour mesurer la cohésion de certains sols fins (exemple : argiles, limons, vases). L'appareil
mesure sa résistance au cisaillement sous contrainte normale nulle (unité : MPa mégaPascal),
dans une situation non drainée.
La nappe est dite « libre » lorsque son niveau peut varier sans être bloqué par une couche
imperméable. Lors d’un forage dans une telle nappe, le niveau de l'eau reste inchangé. Une
nappe perchée est une nappe libre, permanente ou temporaire, formée dans une zone non
saturée, et qui surmonte une nappe libre de plus grande extension.
Dans le cas contraire, il s’agit d’une nappe « captive ». Elle est « sous pression », et, lors d’un
forage, l'eau s'élève jusqu'à un niveau d'équilibre supérieur. Il arrive même que la nappe
jaillisse du sol ; c'est le phénomène d'artésianisme.
Dans certains contextes hydrogéologiques, des nappes communiquent directement avec les
cours d'eau dans un système de relations parfois complexes : renfort des cours d'eau en
période de sécheresse, accompagnement des phénomènes de crues ou échanges et
dissémination des polluants issus des activités humaines.
Ci-dessus, est illustré le cas de nappe superposée. La nappe captive est sous-pression, c'est-à-
dire que lors d’un forage par exemple le niveau d’eau le plus bas dans ce dernier sera
supérieur à celui du toit moyen de la nappe. La différence de hauteur, ou colonne d’eau
correspond à la pression de la nappe captive.
Ci-dessus, est illustrée une nappe en pente ou plus exactement un écoulement d’eau
souterrain avec une pente et un débit plus ou moins important.
2.3.2 Quand la nappe s’invite …elle fait parler d’elle et peut devenir inquiétante
voire préocupante
Ci-dessous une photographie assez surprenante pour les non avertis d’un incident de
chantier issue d’un article de journal paru dans la Gazette locale de Vaison la Romaine.
Article du journal :
En effet, la nappe phréatique est sortie de sous terre sous l’effet des pelleteuses. Des mesures
ont été prises comme disposer des galets de rivière, poser une toile géotextile recouverte de
galets et couler une dalle de béton.
Mais dans le voisinage des questions se posent car beaucoup de riverains possèdent des puits
alimentés vraisemblablement par cette nappe et comment faire pour que les garages prévus
en sous-sol ne soient pas inondés sinon installer une pompe de relevage qui évacuera l’eau
de la nappe dans le réseau des eaux pluviales, directement dans l’Ouvèze, comme cela existe
Mais une solution comme celle-là pourrait impacter les puits de tout le quartier en diminuant
leur capacité de stockage d’eau.
L’inquiétude des riverains est réelle d’autant que l’ensemble du chantier doit être creusé à la
même profondeur avec, potentiellement, d’autres résurgences de la nappe phréatique.
Il faut donc faire confiance aux professionnels du bâtiment pour limiter au maximum les
impacts de ce chantier.
Quels sont les risques pour les riverains, l’entreprise et la future résidence?
Un phénomène courant et source d'importants désordres sous les grandes villes et dans les
régions industrielles est que des nappes pompées durant plusieurs décennies ou siècles par
l'industrie ou pour des besoins en eau potable ont cessé de l'être en raison du recul des besoins
industriels ou de la pollution de l'eau n'autorisant plus son usage en eau potable. Il s'ensuit une
remontée de nappe, source d'inondation et de désordres dans les sous-sols construits à
l'époque où le plafond de la nappe avait été artificiellement rabattu.
l’eau liée, liée au solide par des forces électrostatiques et moléculaires, les deux
processus étant limités dans l'espace ;
l’eau libre, susceptible de se déplacer sous l'effet de la gravité et des gradients de
pression.
la couche la plus proche des grains, dont l'épaisseur est de l'ordre de quelques dizaines
de molécules (0,1 micromètre) correspond à une orientation des molécules d'eau à
structure dipolaire H-OH, perpendiculairement à la surface des grains. Dans cette zone
la viscosité de l'eau peut être doublée ou triplée, sa densité est de l'ordre de 1,5 et sa
force par unité de surface est de l'ordre de 10 000 bars.
la zone de transition entre 0,1 et 0,5 micromètre contient des molécules d'eau qui
supportent une attraction non négligeable et sont immobiles.
Au-delà, les forces d'attraction sont encore plus modestes, il s’agit de l’eau libre ou de la zone
non saturée. Contrairement à la zone saturée qui contient deux phases (liquide pour l'eau,
solide pour les grains), pour cette zone, il y a une troisième phase : l'air. La saturation est alors
la part des pores occupée par un type de fluide
La zone non saturée où l’eau est libre distingue quatre états en fonction de la saturation du sol
en eau :
l’eau funiculaire ou gravifique : dans un sol presque saturé en eau, avec quelques
bulles d'air, l'eau peut s'écouler sous l'influence de la gravité.
sol à saturation d'équilibre autrement appelé sol à capacité de rétention capillaire : la
phase d'eau est encore continue mais ne circule pas sous la seule influence de la
gravité. Cela correspond à l'eau liée et à l'eau retenue par capillarité.
l’eau pendulaire : dans un sol faiblement saturé en eau, l'eau entoure les grains et
occupe des anneaux discontinus aux points de contact de ceux-ci. La phase d'eau est
toujours continue, les pressions se transmettent, mais les mouvements de l'eau sont
très lents du fait de la minceur de la pellicule mouillée.
saturation irréductible : si de l'eau est encore prélevée (ou drainée)
(évapotranspiration), il ne reste plus que l'eau liée.
Les menaces, qualité et niveau de nappes sont suivis à partir de l’enregistrement de différents
paramètres auxquels les nappes réagissent. Les principales menaces sont actuellement la
pollution de l’eau (zones urbaines, industrielles agricole avec les nitrates), la salinisation
(littoral et sous-sol salin), l’évaporation (nappes superficielles en zone aride) et la
surexploitation (pompage excessif).
Ces baisses seraient provoquées par le surpompage annuel des aquifères à 160 milliards de
mètres cubes d'eau à l'échelle de la planète.
des forages peuvent permettre le transit de pollutions superficielles vers les nappes
souterraines (les forages perforent la couche superficielle imperméable et rendent, à moyen ou
long terme, finalement cette surface perméable aux éventuels polluants qui peuvent ensuite se
retrouver dans les eaux pompées et consommées).
La plus grande partie des pollutions de nappe a pour origine les activités agricoles qui utilisent
de nombreux produits (engrais, lisiers, purins épandus comme fertilisants, pesticides) sources
de pollutions et en concentrations importantes. Mais localement des pollutions industrielles
graves existent. Dans certaines régions du monde en état de stress hydrique à cause du
réchauffement climatique ou le plus souvent d'une imperméabilisation excessive des sols et
d'une surexploitation chronique des nappes. Les eaux de récupération qui servent à réguler les
nappes peuvent aussi être une source de dégradation de la qualité des nappes.
Certaines pollutions sont dites naturelles, provenant du passage des eaux dans des zones
minéralisées (particulièrement en domaine cristallin). Certaines concentrations anormales en
éléments très nocifs comme l'arsenic, le mercure, le cadmium ou le plomb peuvent être
détectées dans la nappe et mettre en danger les populations locales et les écosystèmes quand
la nappe alimente des sources ou est en contact direct avec des eaux superficielles, courantes
ou stagnantes.
u0 = γw . zw [2_4]
avec :
u0 la pression interstitielle au repos (kPa)
de la situation du point par rapport à la surface de la nappe (la nappe pouvant être
statique ou en mouvement)
des contraintes créées autour du point par une variation des charges appliquées au
massif
Dans le cas des massifs très perméables, la charge appliquée sur le massif engendre une
variation de volume qui se traduit instantanément par une expulsion de l'eau hors du massif
(ou à l'inverse par une absorption). La pression interstitielle n'est donc pas ou très peu
modifiée. Le report des contraintes s'applique intégralement sur le squelette granulaire du sol.
Dans le cas des massifs peu perméable, l'eau ne peut s'écouler que très lentement et la charge
appliquée met en pression l'eau contenue dans les pores. La pression interstitielle est modifiée
par l'effet de la charge de la manière suivante :
u = u0 + Δu
avec :
u la pression interstitielle à la fin du chargement (ou déchargement) du massif
La pression interstitielle évolue ensuite dans le temps par consolidation du sol pour atteindre
une valeur uf indépendante des contraintes appliquées. Le comportement d'un sol peu
perméable évolue donc entre deux comportements extrêmes :
un comportement à court terme, lorsque le sol vient d'être chargé ou déchargé. Aucune
variation de volume n'a pu encore se produire et les contraintes normales sont reportées
totalement ou pour partie sur l'eau interstitielle;
La pression interstitielle est positive lorsque le point d'observation se situe sous la surface
libre d'une nappe. Elle est négative dans la zone de la frange capillaire saturée, qui est la zone
immédiatement au-dessus de la surface libre d'une nappe. Les pressions interstitielles en cas
de réalisation d'un remblai ou d'ouverture d'un déblai sont modifiées. Ainsi, lors de la
construction d'un remblai de grande largeur qui exerce sur le sol une pression p provoque en
M une augmentation de pression Δu = p. A la fin de la construction (court terme) la pression
interstitielle en un point du sol est :
u = u0 + p [2_5]
Lorsque la consolidation de l'argile sous la charge du remblai est terminée (long terme), la
pression interstitielle redevient égale à u0 si la nappe n'a pas subi de fluctuation importante.
L’ouverture d'un déblai entraîne une diminution des contraintes totales et le sol tend à
augmenter de volume. Si la perméabilité du sol est faible, le sol ne peut absorber que peu
d'eau pendant les terrassements et ne subit par conséquent que des variations de volume très
faibles. Il en résulte une diminution de la pression interstitielle en un point du sol (court
terme) tel que :
u = u0 – Δu [2_6]
La pression interstitielle varie ensuite au fur et à mesure que le sol retrouve un équilibre sous
l'effet des nouvelles contraintes qui lui sont appliquées. La nouvelle pression interstitielle peut
tendre vers une valeur différente de u 0 car l'ouverture d'un déblai provoque une modification
des écoulements souterrains de la nappe et un nouveau régime permanent s'établit. La valeur
finale de la pression interstitielle (long terme) va être déterminée par cet écoulement.
En théorie, dans le cas d'un écoulement à surface libre, la pression interstitielle en M devient à
long terme égale à :
uM = γW ( zN - zM ) [2_7]
3 Sols et Fondations
Et en fonction de la nature et des caractéristiques du sol, du comportement de l’ouvrage et de
leurs interactions, le type de fondation et/ou d’amélioration des sols doivent être déterminés.
La fondation est l’élément qui va transmettre et répartir dans le sol les charges permanentes,
d’exploitation accidentelles ou non appliquées à la construction. Les fondations doivent être
adaptées afin de limiter les contraintes dans les couches de sol concernées et limiter les
tassements différentiels.
Ces fondations sont envisageables lorsque les couches de sols supportent les contraintes
additionnelles et que le tassement total de celles-ci est compatible avec la déformation que
peut supporter l’ouvrage.
Dans certains cas, le recours au radier, permet d’assurer une meilleure répartition des charges
et/ou une continuité de l’imperméabilité de la structure en contact avec le sol.
Ci-contre, un schéma
explicatif pour montrer
les différentes zones de
sollicitations des sols à
proximité de la
fondation superficielle.
Ci-dessus, la photographie des armatures d’un radier. Horizontalement, sont disposés sur un
béton de propreté deux lits de barre d’aciers à haute limite élastique, l’un constitue la nappe
inférieure et l’autre la nappe supérieure. Cette dernière est maintenue au moyen d’écarteurs
en aciers (appelés grecs). A la périphérie, nous pouvons apercevoir les aciers en attente des
voiles périphériques. A l’intérieur des cages d’armatures verticales servent d’attente aux
différents poteaux. Nous pouvons également remarquer des armatures de longrines noyées
dans l’épaisseur du radier disposées entre les poteaux pour rigidifier le radier et mieux
répartir les charges ponctuelles induites par les poteaux.
profondes
Les fondations semi-profondes sont utilisées dans les cas où la fondation superficielle ne
suffit pas et que la fondation profonde n’est pas nécessaire. Un sol peut présenter diverses
formes d’instabilité : il peut y avoir de la boue, de la vase, des glissements de terrain qui
empêchent la construction de l’ouvrage sur une fondation de type superficiel. Dans cette
situation, il faut chercher plus profondément un sol résistant ou stable vis-à-vis des
déformations qui supportera mieux l’ouvrage.
Les charges de l’ouvrage doivent être transmises aux différents puits par l’intermédiaire de
longrines ou de voiles armés. La structure doit être si possible homogène afin d’assurer une
bonne répartition des charges et des déformations du même ordre de grandeur. En règle
générale, au-delà de six mètres de profondeur, il s’agit de fondations profondes. Pour les puits
ou pieux courts, les frottements latéraux ne sont pas pris en compte.
3.3
Cette figue illustre les trois grandes familles de fondations énoncées ci-dessus
Les fondations spéciales ou profondes sont envisagées dès que les deux précédentes solutions
ne peuvent pas être retenues. Cette solution nécessite des travaux de creusement plus
importants et compliqués. Le procédé le plus couramment utilisé en cas de fondation profonde
est celui qui consiste à enfoncer ou à forer des pieux à une certaine profondeur dans le sol. La
profondeur varie en fonction de la nature du terrain et de la charge que devra transmettre et
répartir la fondation aux différents pieux ou groupes de pieux.
Comme précédemment, les charges de l’ouvrage devront être transmises aux différents pieux
ou groupes de pieux par l’intermédiaire de longrines ou de voiles armés. La structure doit être
si possible homogène afin d’assurer une bonne répartition des charges et des déformations du
même ordre de grandeur.
La portance des pieux est obtenue par les frottements latéraux positifs exercés par les couches
de sols incompressibles autour du pieux et par l’effet de pointe.
reprises par chaque pieux. Le sol compressible lors de sa consolidation va entraîner le pieux
vers le bas. Il s’agit d’un frottement négatif qui peut être neutralisé par tubage. L’ensemble
de ces charges sont reprises d’une part par le frottement latéral du sol résistant et de la
réaction positive sous le pieux appelé terme de pointe.
La norme P 11-212 – Une description exhaustive est donnée par l’actuelle norme
expérimentale P 11-212 / DTU 13-2 de septembre 1992 – Travaux de bâtiment – Travaux de
fondations profondes pour le bâtiment. Depuis cette date, les entreprises ont innové dans
d’autres types de fondations profondes, tarières creuses de nouvelles générations, pieux
vissés, micropieux autoforeurs.
En France, les pieux forés sont les plus utilisés à cause des horizons géologiques qui
généralement empêchent l’exécution de pieux battus et grâce à la capacité du matériel de
forage des entreprises françaises. Les pieux forés représentent 85 % du marché national, dont
35 % pour les pieux à la tarière creuse, 20 % pour les pieux forés (simple, boue, tubés) et 10
% pour les micropieux. Pour les pieux battus, 10 % concernent les pieux préfabriqués et 5 %
les pieux battus moulés.
L’échelle de prix suivante peut être retenue en partant du pieu le plus économique : foré
simple < TC1 < TC2, battu moulé < TC3 < foré boue < foré tubé.
1. forage
2. fin du forage, raccordement à la pompe à béton
3. injection du béton et retrait de la tarière avec rotation en sens inverse
4. fin d’injection du béton et recépage
5. mise en place de la cage d’armature
6. pieux terminé prêt à être recépé
Ci-dessous une pelle équipée d’un mat et d’une tarière creuse pour réaliser des pieux et
détail d’équipement pour la tarière pour s’affranchir des sols durs ou points durs:
Ci-contre, l’illustration
Principe pour réaliser des pieux forés simples avec tubage sur les premiers mètres pour
limiter les effondrements
Exemple de pieux foré simple, avec tubage sur toute la hauteur pour éviter le recours à la
boue. A la fin de l’exécution du pieux, le tube est récupéré à condition que la machine soit
assez puissante pour vaincre les efforts de frottement entre le tube et le sol en place et le tube
et le béton frais.
Cette technique de double tubage permet d’extraire plus facilement le tube externe.
perdue.
2. Enfoncement du tube dans le sol par battage en tête du pieu avec un marteau de
battage (mouton hydraulique ou diesel).
3. Mise en place de l'armature à l'arrêt du battage, lorsque le tube a atteint la profondeur
d'assise.
4. Remplissage du fût du pieu avec du béton plastique. Le bétonnage s'effectue à l'aide
d'un cufa fixé sur le tube métallique.
5. Extraction du tube de battage en acier
6. Pieu battu moulé dans le sol achevé.
1 2 3 4 5 6
Les efforts de frottements entre le pieux et le sol dépendent non seulement de la nature des
couches de sol traversées mais également de la technique utilisée pour réaliser les pieux.
Ainsi, le coefficient αf lié à la technique varie de 0 à 1.25.
Ci-dessous des tableaux pour avoir des ordres de grandeur des frottements entre les sols et le
béton et le tableau pour déterminer le coefficient αf :
Le tableau ci-contre est à compléter afin de déterminer les efforts de frottements dans les
alluvions argileuses et dans le sable graveleux en sachant que les frottements dans les
remblais sont très négligeables.
Le micropieu est un pieu de faible section (diamètre : 20 à 25 cm), dont la longueur peut
atteindre une vingtaine de mètres, disposé en groupes pour fonder ou consolider un ouvrage.
Le micropieu assure deux sortes d'ancrages de manière identique à celles d’un pieu : par
frottement latéral autour du micropieu dans le sol qui l'entoure, qui offre ainsi une résistance à
l'enfoncement et par l'effet de pointe qui correspond à l'appui vertical de la fondation sur un
sol de qualité acceptable.
Pour un micro pieu, l'effet de pointe étant très inférieur au frottement, il n’est généralement
pas pris en compte.
Le nombre de micropieux nécessaire est déterminé par un calcul de descentes de charges par
combinaison d'action de l'ouvrage et par une étude géotechnique du sol récepteur.
L'opération est répétée chaque jour jusqu'à ce que le claquage soit impossible ou que la
pression d'arrêt soit atteinte sans quantité (pour un type IV).
Lorsque les micropieux sont associés avec des semelles superficielles ou un radier en travaux
neufs ou en reprise en sous œuvre, la liaison est assurée lors de l’exécution de l’ensemble des
fondations par clavetage ou en cas de reprise en sous œuvre, selon le type de fondation, soit
par l'installation d'une longrine-chevalet passant sous la semelle existante et appuyée sur les
têtes de deux micropieux, soit par une équerre métallique soutenant la semelle et solidarisé
avec la tête du micropieux.
Les techniques d’amélioration de sol permettent également de gommer les écarts de portance
entre différentes zones d’un projet de construction. Enfin, elles contribuent à limiter les
tassements et la liquéfaction des sols en cas de séisme par exemple et offrent ainsi une
meilleure résistance aux ouvrages et infrastructures.
Pour certains projets qui ne nécessitent pas d’ancrages très forts dans les sols, comme des
hangars ou des entrepôts, l’amélioration de sol peut offrir une solution alternative plus légère
que les fondations profondes. Mais pour d’autres projets plus contraignants, elle peut se
combiner efficacement aux fondations profondes pour offrir les conditions de portance
requises.
Les bureaux d’études de sols et les entreprises spécialisées dans les travaux d’amélioration
des sols peuvent accompagnés les différents intervenants de l’acte de construire chargés de
concevoir travaux de fondations.
Le principe de ces techniques consiste à soumettre un sol à une charge afin qu’il se déforme et
se tasse. Ainsi, le sol va se consolider par migration de l’eau. Cependant, cette action sous un
chargement statique est longue. Pour gagner du temps, il est possible de le compacter de
manière dynamique. Cependant, les épaisseurs des couches concernées sont plus faible et ces
techniques sont beaucoup plus énergivore.
3.5.1.1 Préchargement
Lors de la phase de consolidation des sols pour préparer un terrain avant le lancement de
travaux de construction. L'une des solutions les plus employée est celle du pré-chargement, la
mise en place de poids sur un terrain (le plus souvent par le biais d'un remblai ou d’une charge
d’eau maintenue par des digues), afin de le tasser avant réalisation des fondations. Afin de
suivre la compression du sol, il est généralement utilisé des tassomètres qui se présentent sous
la forme de cellules enfouies dans les sols sous le remblai de pré-chargement. Elles permettent
de suivre l'évolution du sol, par le biais de la mesure d'une différence de pression qui s'exerce
entre les cellules situées sous le remblai, et une cellule témoin située en dehors de son
emprise. L'autre option est d'effectuer un suivi profilométrique : il ne s'agit plus de cellules
ponctuelles, mais d'un tube guide continue mis en place dans une tranchée sous le remblai
avant sa mise en œuvre. Ainsi, la mesure continue des tassements engendrés par le remblai de
pré-chargement est rendue possible.
Cette seconde méthode a l'avantage d'une précision plus pointue dans la mesure des
tassements. Mais sa problématique réside dans le fait qu'il est impossible de les identifier sur
un seul linéaire par dispositif installé - il faudra alors installer plusieurs dispositifs sur un
même site, ce qui au final sera plus lourd et plus coûteux. Par contre, les tassomètres sont plus
faciles à mettre en œuvre, la zone de test pouvant être plus étendue, avec une géométrie plus
complexe, que pour la méthode profilométrique.
Il est également possible de suivre le tassement des sols sous le remblai de pré-chargement
par d'autres méthodes plus rudimentaires (pose de plots au sommet du remblai, ou de plaques
métalliques à la base du remblai surmontées de tiges métalliques soudées au fur et à mesure
de la montée du remblai). Ces méthodes restent cependant beaucoup plus sujettes aux aléas
extérieurs et aux effets parasites qui faussent plus fréquemment les mesures.
Il est nécessaire pour les couches de sols humides, avec un excédent d’eaux résiduelles et peu
perméables d’associer au pré-chargement la pose de drains verticaux. Cette technique consiste
à mettre en œuvre des colonnes de petits diamètres remplis de matériaux granulaires afin d'en
accélérer le drainage. Une opération qui permet de gagner du temps en amont du chantier et
de se dispenser de techniques d'amélioration des sols (injection souterraine plus coûteuse).
Cette méthode est recommandée pour éviter la construction de fondations profondes qui serait
beaucoup plus compliquée et coûteuse. Elle permet de recourir plus simplement à un radier -
fortement ferraillé - après tassement des sols pour bien répartir les charges sur les couches
consolidées de manière artificielle.
Cependant, c’est une opération longue qu’il est nécessaire d’anticiper très en amont du
chantier et au début du projet. En effet, elle nécessite l’immobilisation du foncier.
En tout, les opérations de consolidation peuvent prendre entre plusieurs mois et plusieurs
années en fonction de la nature des sols, délais qui ne sont pas toujours compatibles avec la
marge de manœuvre des maîtres d'ouvrages. Par ailleurs, elles sont souvent difficilement
conciliables avec d'autres opérations de chantier car les remblais peuvent occuper plus de
place que l’emprise des constructions jusqu’à trois fois celle-ci. Le pré-chargement doit donc
être réalisé très en amont et l'édification du remblai doit être la plus rapide possible, en
corrélation avec la capacité portante des sols qui sont chargés, afin que la réaction du sol
chargé soit homogène. Mais les difficultés rencontrées sont nombreuses : il est, par exemple,
impossible de faire travailler un terrain à proximité de bâtiments, de voiries ou de réseaux
déjà existants, sous peine de leur infliger des dommages. Le terrain doit donc être libre de
toute mitoyenneté et les tassomètres de suivi doivent être bien posés et correctement protégés,
notamment des engins de chantier qui circulent à proximité et risquent de les dérégler ou de
les abîmer.
La
figure ci-dessus illustre un préchargement au moyen d’un remblai. Les drains verticaux
permettent à l’eau de s’évacuer. Ainsi, la couche de sol faible peut tasser et ses
caractéristiques mécaniques notamment la portance vont augmenter au cours du temps. Cette
couche va après une longue durée se tasser de moins en moins.
3.5.1.2 Compactage
Le compactage des sols est une technique utilisée en génie civil visant à améliorer la qualité
des sols pour la construction. Il ne faut pas la confondre avec la compaction du sol (appelée
aussi tassement du sol) qui peut apparaître à l’occasion de phénomènes naturels (pluies
intenses en sols battants), ou être d'origine anthropique (surpiétinement, passages d'engins
agricoles).
Il existe différente manière de réaliser un compactage selon l'énergie que l'on souhaite obtenir
et les moyens disponibles. Parmi les engins utiliser pour compacter superficiellement, ils
existent :
la plaque vibrante ;
la pilonneuse ;
le rouleau compresseur ;
le compacteur à pieds de mouton (avec lame bull).
le compacteur à pied de mouton ;
le compacteur de tranchée ;
le compacteur vibrant ;
le compacteurs à pneumatiques.
La plaque vibrante,
La pilonneuse,
verts, le compactage des remblais, les fondations, les retouches et les réparations. Elles ne
peuvent pas être pilotées à distance. L’épaisseur de la couche de sol compacté varie de 25 à
40 cm suivant la nature du sol à compacter, le modèle et la puissance de la pilonneuse utilisée.
Le rouleau compresseur,
Le compacteur statique agit par pression statique générée uniquement par son poids. Il est
adapté au compactage de sols
moyennement cohérents, comme les
sables argileux ou limoneux, les
graviers, les sables et les argiles. Le
rouleau compresseur statique est
fréquemment utilisé pour la compression
de couches minces granuleuses ou non
ainsi que des enduits de surfaces et pour
les travaux de finitions.
tranchée ou compacteur multifonction se destine aux travaux sur sols cohésifs comme l'argile,
pouvant être particulièrement difficiles à travailler. Il s'utilise principalement sur les chantiers
à dimension humaine, mais de grande envergure. En général, il est plus robuste que les autres
types de compacteurs de sol. Aussi, il offre habituellement une grande durabilité.
Bomag a lancé une gamme de compacteurs tandems à oscillation. Contrairement aux rouleaux
vibrants classiques, la vibration de la bille n’est plus verticale mais horizontale. Cette
technique s’avère nécessaire dans certaines situations (compactage du tablier d’un pont, par
exemple) et efficace avec certains types d’enrobés, sous réserve qu’ils résistent bien aux
efforts de cisaillement. Baptisé Tango, ce système ne concerne que la bille arrière ; la bille
avant, elle, peut être soit statique, soit vibrante verticalement, au choix. Tango peut être monté
sur toute la gamme des rouleaux Bomag.
En dehors des travaux routiers ou pour améliorer la traficabilité lors de l’exécution des
travaux de terrassements, la densification de la couche de sol en place sous les semelles
superficielles est utile afin de mieux répartir les charges et redensifier les matériaux laisser à
l’air libre qui ont eu tendance à se décompacter.
Le compactage des sols permet de densifier aussi bien les sols granuleux que cohérents.
Cependant, dans le cas des sols granuleux les grains sont resserrés tandis que pour les sols
cohérents, les particules fines sont réorganisées en strates horizontales ce qui améliore la
portance.
Lors des travaux de compactage, la teneur en eau a une influence directe sur la qualité du
compactage et l’énergie à fournir pour obtenir le résultat escompté.
Pour anticiper ou contrôler l’efficacité d’un compactage, l’essai proctor en laboratoire permet
de tracer la courbe d’évolution de la densité sèche d’un matériau de remblais en fonction de la
teneur en eau. Ainsi, avec une énergie de compactage identique pour densifier un matériau
dans un contenant calibré dont la teneur en eau varie d’un essai à l’autre, il est possible de
comparer la masse de matière sèche qui a pu être introduite. Les courbes ainsi obtenues sont
de forme concave. Leur maximum correspond à la teneur en eau qui a permis de mettre le
maximum de matériaux secs dans le récipient étalonné.
Pour être plus précis et efficace, le damage peut être réalisé au moyen d’une machine
spécifique.
Le compactage dynamique consiste à laisser tomber une masse de plusieurs tonnes à l’aide
d’une grue selon un maillage prédéfini pour améliorer les sols naturels et les remblais.
Le compactage dynamique est un procédé d'amélioration du sol qui densifie les sols en place
et les remblais à l'aide d'une masse. Le sol est soumis à un pilonnage de surface répété à l'aide
d'une masse d'acier ou de béton. En général, la masse pèse entre 5 et 10 tonnes, et est lâchée
gravitairement à plus de 10 mètres de hauteur.
Elle est lâchée plusieurs fois sur un quadrillage qui recouvre le site pour réaliser une première
passe. Deux ou trois passes de compactage peuvent ensuite être nécessaires par site, selon le
type et l'état du sol. Les empreintes formées après chaque passage de compactage sont
remplies de matériau granulaire.
Sur la photographie ci-contre, le compactage dynamique est assurée par deux ateliers. Le
quadrillage est bien visible. Les impacts n’ont pas encore été comblés.
Ce procédé permet de compacter une large gamme de sol, y compris des remblais à blocs. Il
permet d’augmenter la capacité portante, de réduire les tassements.
Les sols en place et les remblais compactés ont une densité, un angle de frottement et une
rigidité accrus. Ainsi, il est possible d’améliorer les conditions du sol sur les sites de manière
à permettre la réalisation de fondations superficielles.
C’est une technique adaptée pour les travaux de compactage peu profonds, rapides et plus
économique que les méthodes traditionnelles.
Cette technique densifie les sols sur de faibles profondeurs à l’aide d’un marteau hydraulique
qui pilonne de façon répétée une plaque d’impact posée sur la surface du sol.
Ci-contre un ensemble
de figures pour
illustrer le procédé
RIC. Un maillage et
un phasage précis
permet d’optimiser le
processus en fonction
des couches de sols à
compacter et de leur
nature.
Le RIC est efficace pour compacter le sol existant qui, autrement, devrait être excavé et
compacté à l’aide d’un compacteur à rouleaux conventionnel, par couches successives de 15
cm à 30 cm . Cela permet une densification jusqu’à 4 voire 6 m de sols sans avoir recours à
une excavation ni un rabattement de nappe. Cette technique peut également être utilisée pour
compacter du remblai ou substitution. Elle est adaptée pour toutes constructions
d’infrastructures d’envergures. Du fait de sa rapidité d’exécution, elle est beaucoup plus
économique que les autres techniques.
L’énergie est transférée aux sols de faible compacité sous-jacents en réarrangeant les grains
en une formation plus dense. Les emplacements de l’impact sont généralement situés selon un
réseau ou maillage dont l’espacement entre plots est déterminé par les conditions de sol, la
charge du projet et la géométrie des fondations.
Le RIC est une évolution du procédé de compactage dynamique. La masse est plus petite et
tombe de nettement moins haut (1,2 m), mais avec une fréquence nettement plus élevée
qu’avec une approche traditionnelle (40 à 60 coups par minute). Le nombre d’impacts et
l’énergie de compactage par point sont donc plus importants que pour le compactage
dynamique traditionnel, avec une diminution des vibrations sur les avoisinants.
Cette technique peut être couplée à l’ajout de matériaux granulaires pour réaliser des plots
ballastés.
Le traitement est une opération qui consiste à mélanger un sol naturel avec de la chaux et/ou
un liant hydraulique de préférence de type routier. Il permet, en améliorant ses
caractéristiques, d’utiliser un sol qui était impropre à l’état naturel. Par ailleurs, cette
technique conduit à préserver l’environnement : en utilisant les matériaux du site, on
sauvegarde les ressources naturelles nobles (roches massives) et on réduit les nuisances (pas
de circulation de camions de transport sur les voiries publiques).
Le traitement à la chaux (vive) permet de diminuer très rapidement la teneur en eau et ainsi de
rendre « portant » des sols non circulables à l’état naturel.
Lorsque le sol est argileux, le traitement à la chaux (vive, éteinte ou lait de chaux) augmente à
long terme ses caractéristiques mécaniques. Les dosages moyens en chaux sont de l’ordre de 1
à 4 %. Le traitement au liant hydraulique procure au mélange des caractéristiques mécaniques
pérennes et permet ainsi de l’utiliser en couche de forme ou en assises de chaussées.
Les liants hydrauliques habituellement utilisés en traitement de sols sont les ciments et surtout
les liants hydrauliques routiers (liant hydraulique à base de laitier avec peu ou pas de clinker).
Le dosage moyen en liant hydraulique est de l’ordre de 4 à 8 % (si le sol est argileux et donc
plastique, il est nécessaire de le pré-traiter à la chaux - 1% environ - pour obtenir une
« mouture » fine avant de le traiter au liant hydraulique).
en place. Dans ce cas, le sol naturel est traité sur le lieu d’utilisation. Le matériel
nécessaire est composé d’une épandeuse de liants : citerne tractée de 12 à 16 m3 avec
système de dosage pondéral asservi à la vitesse d’avancement ; d’une arroseuse de 10
à 15 m3, avec une rampe munie d’injecteurs, tractée ou auto-motrice et d’un
malaxeur : soit une charrue à socs tractée par un bouteur, soit un pulvérisateur auto-
moteur (pulvi-mixer) à rotor horizontal. La profondeur de malaxage est d’environ 0.40
à 0.50 m.
ou dans une centrale de malaxage Le sol naturel est amené de l’emprunt à la centrale
où il est mélangé avec le(s) liant(s) puis retransporté sur le lieu d’utilisation. La
centrale est une installation fixe ou mobile qui est constituée des différents éléments
présentés suivant le synoptique ci-dessous :
Ils sont aussi appelés radier naturel. Ils permettent de répartir uniformément les charges sur la
couche de sol naturel dont les propriétés caractéristiques ont pu être améliorées ou non.
Sous la semelle
superficielle la
largeur d’influence est B. Et sous le remblai de substitution de hauteur h mesurée entre l’arase
inférieure de la semelle superficielle est le toit des matériaux naturels laissés en place, la
largeur est augmentée.
Dans ces conditions, il est envisageable de vouloir limiter la contrainte sur le toit des
matériaux en place à une valeur notée q r déterminée à partir de différents essais in-situ et en
laboratoire. La contrainte admissible notée q sous la fondation de largeur B et de longueur
supposée infinie (cas des semelles filantes sous les voiles ou murs) pourra être déterminée
comme suit :
La valeur de cette contrainte admissible q pour les ELS peut être plafonnée par l’ingénieur
géotechnicien pour limiter les tassements du remblai de répartition ou de substitution. Il est à
noter que lorsque le remblai est mis en œuvre sur le terrain naturel (décapé ou non), il ne faut
pas oublier l’action de son poids propre sur le toit des matériaux naturels laissés en place q’=
γd.h à déduire de qr.
Les matériaux sablo-graveleux du matelas seront mis en œuvre par couches successives de
50 cm d’épaisseur maximum, soigneusement compactées et contrôlées par des essais à la
plaque. Généralement pour les couches inférieures moins sollicitées, il est admis
k=EV2/EV1>2 et EV2>50 MPa et pour les deux ou trois dernières couches EV2 >80 MPa.
Les fondations devront être encastrées dans le matelas afin de garantir la mise hors gel de
celles-ci. Le bétonnage de celles-ci doit être rapide afin d’éviter la décompression du matelas
sablo-graveleux.
Lorsque les caractéristiques du sol ne lui permettent pas de supporter le poids de l’ouvrage,
les géosynthétiques renforcent la résistance au cisaillement du matériau naturel compressible
à la base du remblai, et améliorent la capacité portante du sol support.
Les géotextiles tissés permettent de maximiser les hauteurs et de réduire les emprises,
d’optimiser la vitesse de construction avec le maintien de la stabilité pendant la consolidation
et de résister aux efforts de déplacements latéraux du remblai
Les remblais sur inclusions rigides qui permettent de résoudre les problèmes de tassements du
sol incompatibles avec les exigences de déformations de l’ouvrage peuvent être armés à leur
base par des géotextiles qui offrent ainsi une solution cohérente et économique de remblais
sur inclusions rigides grâce notamment à l’amélioration de l’efficacité du transfert de charge
et le contrôle des tassements différentiels.
Il est à noter que le renforcement par géosynthétique permet de réduire de 10 à 20% la surface
couverte par les têtes de pieux est généralement de 60 à 70% de la surface totale. Ainsi, le
maillage et la dimension des têtes d’inclusions peuvent être optimisés et l’avancement du
chantier peut être accéléré et le cout des travaux réduit. Le renforcement ou l’inclinaison des
pieux peut être évité car la résistance des géosynthétiques s’oppose aux efforts horizontaux
dus au remblai aux niveaux des têtes d’inclusions.
Par ailleurs, les géosynthétiques renforcent la base des remblais et empêchent la ruine des
ouvrages en assurant la sécurité des usagers contre les risques d’effondrements. Leur présence
permet également d’optimiser la hauteur des remblais ou matelas de répartition ou de
substitution et participent ainsi à la réduction sur l’impact sur l’environnement.
Une des techniques de drainage consiste à réaliser des drains verticaux préfabriqués.
Les drains verticaux préfabriqués sont en plastique (ronds ou plats) enveloppées dans un
géotextile filtrant. Les drains favorisent l’évacuation des surpressions interstitielles des sols
meubles et compressibles afin de réduire les temps de consolidations de plusieurs décennies à
quelques mois. Ils sont donc généralement utilisé dans les sols meubles et saturés à grains
fins, comme les limons, les argiles, la tourbe, les boues, les résidus miniers et les remblais de
dragage, souvent foisonnés et saturés d’eau.
Ils sont également utilisés pour accélérer le drainage et consolider les bassins de résidus et les
plates-formes de lixiviation.
Les drains plats qui sont les plus utilisés sont constitués
d’une bande préfabriquée idéale pour l’écoulement de l’eau.
Le noyau flexible est généralement fabriqué en
polypropylène et les deux côtés ont des rainures permettant à
l’eau de s’écouler sans entrave. Le noyau est enveloppé dans
un tissu filtrant géotextile solide et durable avec d’excellentes
propriétés de transitivité, permettant un accès libre de l’eau
interstitielle dans le drain. Cela empêche également de
pomper des fines particules provenant des sols adjacents sans
colmatage.
Le procédé consiste à créer une dépression sous une membrane étanche posée sur le sol, qui
génère une pression atmosphérique sur le sol, équivalente à la pression exercée par un remblai
de 4 mètres.
Le Menard Vacuum™ est utilisé dans des sols cohésifs très compressibles pour accélérer le
processus de consolidation.
Ce procédé permet d’augmenter la stabilité des ouvrages tout en permettant de réduire la
hauteur de la surcharge nécessaire pour consommer les tassements
Ci-dessus, une coupe schématique pour présenter le dispositif pour drainer des couches
meubles et compressibles. Les drains verticaux font partie de ce processus. Les eaux sont
pompées, traitées puis rejetées dans le milieu naturel. Ainsi, sur la membrane s’exerce la
pression atmosphérique tandis qu’à l’intérieur elle n’est plus équilibrée à cause de la mise en
dépression. Ainsi, une charge de 0.06 à 0.07 MPa est appliquée sur les couches meubles et
compressibles.
L’installation des drains est très rapide cependant l’installation du procédé Menard
Vacuum™ est plus complexe. Ce dispositif permet d’accélérer le drainage, réduire les étapes
de remblaiement et de fait les délais de construction.
à une mise en place du pré-chargement au plus tôt, dès la mise en route du système, et sans
risque de rupture du terrain. La nature isotrope de la charge du Menard Vacuum™ ainsi que la
« poutre artificielle » générée par la dépression entre les drains horizontaux et la membrane
ont un effet fortement stabilisateur sur les remblais.
Ces différentes techniques pratiquées si possible in situ ou à proximité pour limiter les
transports visent à recycler le maximum de matériaux en place afin de limiter les déblais mis
en décharge pour limiter d’une part les impacts environnementaux et d’autre part pour des
raisons économiques.
3.5.2.1 Criblage
Le criblage permet de
réaliser un tri
granulométrique
notamment au moyen de
cribleurs mobiles tels que
celui-ci-contre. Cette
technique permet de
séparer des particules de
sol en fonction de leur
taille, de leur masse
volumique, de leur
géométrie et de leur
surface spécifique. Elle
permet également
d'extraire le contaminant
et de le rendre dans un
volume réduit en sachant que la pollution est localisée en très grande partie dans les particules
les plus fines. Cette séparation se fait en présence ou absence de l'eau sur des sols hétérogènes
contenant ou non des : hydrocarbures (SCOV, COV…), pesticides, radionucléides… Le tri est
efficace pour séparer les composés récalcitrant qui résiste au traitement conventionnel tels que
les HAP , dioxines, furanes. Les éléments utilisés lors d'un tri sont le pré-criblage et le
criblage et la séparation magnétique, l'abattement est environ de 95 à 98 % dans des modes
opératoires optimales.
3.5.2.2 Concassage
Un concasseur est une machine conçue pour réduire les grosses roches en petites pierres,
gravier, ou poussière de roche. Les concasseurs peuvent être utilisés pour réduire la taille ou
changer la forme des sols excavés afin qu'ils puissent être plus facilement éliminés ou
recyclés. Ils peuvent également réduire la taille d'un mélange solide de matières premières, de
sorte que ses différents composants puissent être séparés. Les appareils de concassage
retiennent le matériau entre deux surfaces solides parallèles ou tangentes, et appliquent une
force suffisante pour rapprocher ces surfaces, générant suffisamment d'énergie dans le
matériau pour que les molécules se séparent (fracturation), ou changent d'alignement les unes
avec les autres (déformation).
Chaque concasseur est conçu pour une taille maximale des matières premières, et livre
souvent sa production à un crible qui trie et oriente le produit pour un traitement ultérieur.
En fonctionnement, les matières premières (de tailles diverses) sont généralement livrées à la
trémie du concasseur par tombereau, pelles sur roues ou chargeurs frontaux. Un dispositif
d'alimentation permet de contrôler la vitesse à laquelle cette matière pénètre dans le
concasseur. Ce dispositif d'alimentation contient souvent un dispositif de criblage
préliminaire, qui permet aux petits matériaux de contourner le broyeur, améliorant ainsi
l'efficacité de celui-ci.
Les concasseurs
3.5.2.3 Mélange
Afin de mélanger les sols en place avec un autre matériau afin d’améliorer ces caractéristiques
physiques et mécaniques, il faut au préalable l’excaver puis le malaxer avec ce ou ces
matériaux d’apport qui peuvent être plus ou moins grenus ou des liants hydrauliques.
Parmi les techniques de malaxage in-situ celles qui est la plus simple à mettre en œuvre et
l’utilisation de godet malaxeur comme illustré ci-dessous :
D’autres techniques de malaxage avec des liants hydrauliques pour améliorer la portance et la
traficabilité au moyen d’enfouisseurs à dents ou de recycleurs. Ci-dessous à gauche, un
enfouisseur à dents et à droite un recycleur.
La litho-stabilisation est une technique qui consiste à ajouter une proportion de roche(s)
dure(s) concassée(s) allant de 10% à 40% puis soumis à des essais pour juger le CBR.
L'essai CBR, de California Bearing Ratio, permet de réaliser la caractérisation mécanique des
sols naturels et de sols compactés dans des remblais et des couches de forme, de fondations et
de sous-fondations de routes et aéroports. Il mesure la résistance à l'effort tranchant d'un sol et
le gonflement du sol lorsqu'il est immergé dans l'eau pendant 4 jours. Il permet de calculer la
portance du sol, en estimant sa résistance au poinçonnement.
Cet essai souvent réalisé en laboratoire (rarement in situ) permet de déterminer l'épaisseur des
couches de fondation, établir une classification des sols et permettre d'étudier la traficabilité.
Cet essai est défini par la norme NF P 94-078.
Les essais de CBR sont effectués sur des échantillons compactés avec une teneur en humidité
optimale, obtenus à partir de l’essai de compactage Proctor.
[3_1]
Où:
Le nombre CBR, qui est le nombre entier (sans le %) représente le pourcentage de la charge
unitaire standard.
Le nombre CBR est basé normalement sur le rapport de la charge pour une pénétration de 2,5
mm (0,1 pouce). Cependant si la valeur de CBR à une pénétration de 5mm (0,2 pouce) est
supérieure, l’essai doit être répété pour pouvoir confirmer cette valeur si elle se répète.
Il est à noter que la méthode à suivre pour déterminer le CBR dépend des caractéristiques des
sols (perturbés et remoulés graviers et sables sans cohésion sols cohésifs, peu plastiques et pas
expansifs sols cohésifs et expansifs ou sols inaltérés).
Cette technique a été créée dans les années 1970-1980 au Japon et en Scandinavie,
initialement pour améliorer la portance de sols argileux mous. L’entreprise Bachy a fait partie
des précurseurs dans ce domaine avec la création du procédé Colmix® dès 1986 en Europe de
l’Ouest. Depuis lors, la technique du Deep Soil Mixing a été étendue à une vaste gamme de
sols et d’applications.
Cette technique peut être à présent être réalisée suivant différents procédés par voie sèche ou
humide
La voie sèche convient aux sols à très forte teneur en eau qui sont aptes à apporter par eux-
mêmes l’hydratation des liants injectés dans le sol sous forme sèche.
Le diamètre usuel des colonnes est de 0,6 à 1 m et la profondeur de traitement peut aller
jusqu’à 25 m. L’insufflation et le malaxage du liant sec s’opèrent à la remontée de l’outil, en
inversant le sens de rotation par rapport à la phase de descente. Le liant est transporté depuis
la navette dans des tubes, au moyen d’air comprimé. La quantité de liant injectée est ajustée
en agissant sur la vitesse de rotation du dispositif d’alimentation. La pression de l’air et la
quantité de liant sont régulées automatiquement afin de doser avec précision le malaxage final
dans la zone traitée.
Pour la voie humide qui est mieux adaptée aux sols à faible teneur en eau les outils de
malaxage DSM varie généralement de 0,6 à 2,4 m, en fonction du but recherché et des sols à
traiter. L’outil de malaxage est constitué de tiges de forage, de « couteaux » transversaux et de
mèches de tarière en pointe. La descente et la montée de l’outil sont facilitées par l’injection
simultanée de coulis de ciment par des buses placées spécialement à l’extrémité de la tarière
dans le cas de colonnes de grand diamètre, et également sur les pales de malaxage. Un atelier
peut être équipé d’un à trois outils de malaxage mis en parallèle. Des armatures en acier
peuvent être mises en place dans le soilmix fraîchement réalisé afin d’améliorer la résistance
en flexion des colonnes de DSM utilisées en soutènement de fouilles.
C’est l’un des procédés de Deep Soil Mixing et c’est le plus classique, mis en œuvre depuis
près de 40 ans. Le procédé Colmix® est utilisé depuis les années 80. Depuis ce procédé a été
amélioré et offre de nouvelles opportunités : amélioration de sols, écrans d’étanchéité, et
applications structurelles.
Il s’agit d’utiliser un outil simple ou multiple pour construire des colonnes de Soil Mixing. La
mise en œuvre de cet outillage requiert la puissance d’une machine de foration pour
l’exécution de pieux.
Dans les années 1980 – 1990, le procédé Colmix® désignait une méthode brevetée par
Soletanche Bachy utilisant plusieurs tarières continues synchronisées permettant de réaliser
des colonnes de sol traité au ciment pendant le forage, et de réaliser un post compactage du
mélange lors de la remontée de l’outil. Le procédé était alors quasi exclusivement réservé à
des applications d’amélioration des sols.
Depuis, le procédé a évolué et consiste à utiliser un outil simple ou multiple pour construire
des colonnes ou groupes de colonnes en mélangeant un coulis de ciment au sol en place. Cette
simplification a permis de largement étendre la gamme de sols qu’il est possible de traiter,
tout en étendant le champ des possibilités d’utilisation. Ainsi, le procédé a été utilisé pour des
applications hydrauliques (écrans d’étanchéité), structurelles (écrans de soutènement, mur-
poids, puits) ou encore d’amélioration de sols (renforcement de plateformes, stabilisation de
talus, renforcement de la butée de parois moulées, refends, traitements anti liquéfaction, …)
Cette solution est uniquement réalisée par voie humide. Elle est applicable sur une très large
gamme de dimensions d’outils et limite l’incertitude sur le diamètre de la colonne réalisée.
Les vibrations sont limitées par l’injection à basse pression du coulis.
Les outils de conception assez simple peuvent être mis en œuvre sur n’importe quelle
machine de pieux de puissance suffisante. Les outils multiples nécessitent des machines
équipées d’une tête de rotation spéciale.
Lors de la phase de forage, le sol est destructuré par le passage de l’outil. Un coulis de ciment,
injecté pendant cette phase, permet non seulement de faciliter la pénétration de l’outil, mais
surtout d’incorporer la quantité de liant nécessaire pour atteindre les propriétés finales de la
colonne de sol-traité. L’essentiel du malaxage du matériau sol-ciment est ainsi réalisé pendant
cette phase. La phase de remontée permet de parfaire le brassage des matériaux.
Dans le cas de colonnes sécantes, celles-ci sont construites selon le même principe, en
remordant dans des colonnes préalablement construites (fraiches ou ayant déjà amorcé leur
prise).
La mise en œuvre du procédé s’accompagne d’un suivi en temps réel depuis un écran situé en
cabine, permettant à l’opérateur de respecter les consignes d’exécution et un enregistrement
des principaux paramètres opératoires pendant la construction de chaque colonne.
Ci-dessous des outils pour faire du colmix avec des « batteurs » à plusieurs tiges :
Le jet grouting est une technique assez répandue qui consiste à réaliser des colonnes de sol-
ciment par érosion artificielle. Le procédé jet grouting réside à découper un sol en profondeur
dans un forage à l’aide d’un jet de fluide(s) et à mélanger le sol érodé avec un coulis
autodurcissant pour former des colonnes et autres structures dans le terrain.
Grâce à sa puissance élevée, le jet permet de destructurer le sol en place par érosion sur une
certaine distance, fonction de la nature du sol et de sa compacité. Une partie de ce sol est alors
substituée par le coulis de ciment apporté par le jet. Cette substitution plus ou moins
importante du sol en place dépend de la technique utilisée et de l’objectif à atteindre.
Dans la grande majorité des applications, l’outillage tourne et remonte de telle façon que
l’élément de sol-ciment formé en place soit à peu près cylindrique afin de former une colonne.
Ce procédé s’applique aussi bien aux grands travaux de génie civil qu’aux petites reprises en
sous-œuvre de bâtiments en site exigu et peut se décliner en trois méthodes différentes :
Jet simple : La destructuration du terrain et la cimentation sont obtenues par un jet de coulis
envoyé à haute pression au travers de buses montées au pied d’un train de tiges.
Jet double : La destructuration du terrain et la cimentation sont obtenues par un jet de coulis
haute pression entouré par un jet d’air concentrique qui en améliore le rayon d’action.
Jet triple : La destructuration du terrain est obtenue par un jet d’eau entouré par un jet d’air
concentrique et la cimentation est obtenue par un jet de coulis séparé.
Suivant les paramètres du jet (débit, pression, méthode), le type de sol et l’outillage employé,
le diamètre moyen des colonnes peut varier de 60 cm à plusieurs mètres. Les profondeurs de
traitement peuvent aller jusqu’à 100 mètres. Les colonnes peuvent être verticales, inclinées ou
même sub-horizontales.
Ce procédé ne nécessite pas beaucoup d’espace (faible emprise au sol, hauteur limitée). Par
ailleurs, les colonnes peuvent être réalisées au contact de structures en béton ou maçonneries.
Il est également possible de construire des secteurs de colonne en déplaçant le jet sur un angle
donné (sans faire une rotation complète) et d’agir sur le diamètre de la colonne en modifiant
les paramètres du jet. Les colonnes de dimensions importantes sont réalisées à partir de
forages de diamètre réduit.
Mise en œuvre : Le traitement par jet est opéré par une foreuse qui permet d’envoyer à la
profondeur voulue dans le terrain un jet de coulis capable d’éroder le sol autour des tiges et de
le mélanger au coulis jusqu’à une certaine distance. Un équipement « à très haute pression »
est utilisé pour pomper le coulis à travers une ou plusieurs buses de petit diamètre placées à
l’extrémité des tiges de forage. La brusque réduction de diamètre entre tiges et buse accélère
considérablement la vitesse du fluide et permet de former un jet. Une colonne est formée en
faisant tourner les tiges et en les remontant progressivement. Il est alors possible de réaliser
progressivement des structures formées de plusieurs colonnes sécantes.
Lors de la construction d’une colonne de jet grouting, les excédents de matériaux (mélange
sol, eau et ciment) sont récupérés en surface pour évacuation en décharge.
La figure ci-dessous illustre les différentes étapes de jet grouting pour réaliser des colonnes
sécantes afin par exemple de créer un rideau étanche pour la durée de l’exécution des
ouvrages enterrés.
Essais d’injection en colonne au laboratoire avec du matériau prélevé sur site pour
vérifier la faisabilité du traitement et ses performances en matière mécanique,Essais de
convenance sur le terrain pour confirmer le dimensionnement final des futurs
travaux,Campagne de reconnaissance avec carottages et essais pénétrométriques pour
contrôler la qualité du résultat final,
Suivi par méthode géophysique.
Cette technique brevetée fait ces preuves, mais elle nécessite des essais de convenance en
laboratoire et des essais in-situ pour s’assurer de son efficacité dans le contexte particulier du
projet à réaliser.
Ce phasage type est proposé par Solétanche-Bachy , dès lors que les couches de sols aient été
identifiées et que les différents essais aient pu permettre de mesurer l’efficacité en fonction de
la quantité de bactéries injectées. Une fois cette mise au point effectuée, la mise en œuvre de
cette solution pour améliorer les sols est assez rapide.
Les sols qui peuvent être traités doivent
C’est une solution très efficace pour la construction d’écrans d’étanchéité, le procédé
Trenchmix® de Soletanche Bachy peut avoir bien d’autres usages.
Le Trenchmix® est un procédé de Deep Soil Mixing qui consiste à réaliser dans le sol des
tranchées continues de sol mixé avec un liant. Celui-ci peut être un ciment standard, ou une
combinaison de clinker et de chaux, cendres volantes ou encore laitier de haut fourneau.
Les tranchées de mélange sol-ciment sont réalisées au moyen d’un outillage de type
trancheuse, spécialement adapté, afin :
Ce procédé permet de réaliser des parois continues de sol traité en place que l’on peut
qualifier de linéiques (lorsque vues en plan) ou surfaciques (lorsque vues en élévation). Cette
paroi seule peut être utilisée comme écran d’étanchéité. Lorsqu’on lui ajoute un renforcement
structurel (profilés métalliques ou autres), la paroi Trenchmix® peut être utilisée en
soutènement. Enfin, disposées sous la forme d’un réseau de tranchées, les parois Trenchmix®
sont utilisées pour des applications d’amélioration des sols.
Le mélange sol-ciment ainsi réalisé peut atteindre des résistances à la compression moyennes
de l’ordre de 3 MPa et des valeurs de perméabilité inférieures à 10-8 m/s.
Cette technique génère peu de déblais, elle est peu intrusive pour l’environnement, réduit la
consommation de ressources (moins d’eau, pas d’ajout d’agrégats). Son exécution est assez
rapide. La paroi sans joints ne nécessite aucun traitement à ce niveau. L’imperméabilité du
mélange est meilleure que celle d’une paroi au coulis. Cet écran homogène sur toute la
hauteur de tranchée a une bonne résistance à l’érosion. Les travaux peuvent être exécutés sous
hauteur limitée. De plus, durant la construction, les travaux engendrent peu de vibrations aux
structures avoisinantes.
Pour la mise en œuvre, deux techniques peuvent être privilégiées dans le cadre de ce procédé.
Le choix sera déterminé par la nature du terrain, par le type de travaux à réaliser ou selon
l’humidité du sol en place.
La méthode humide : Le liant est introduit sous la forme d’un coulis (mélange d’eau et
de liant) préalablement préparé. Réalisation d’une pré-tranchée sur la plateforme pour
canaliser les déblais. Le coulis préparé préalablement en centrale est pompé vers la
machine. Puis le terrain est destructuré avec l’incorporation du liant et malaxage lors
du passage de la lame. Les propriétés et de la composition du coulis de ciment sont
contrôlés ;
La méthode sèche : Le liant est introduit sous forme pulvérulente, directement dans la
tranchée. Réalisation d’une pré-tranchée sur la plateforme pour recevoir le liant,
canaliser les déblais, mise en place du liant sous forme pulvérulente préalablement au
passage de la machine et destructuration du terrain, incorporation du liant et malaxage
lors du passage de la lame. La quantité de ciment mis en place est contrôlée.
Pour les deux méthodes, un contrôle continu du positionnement de l’outillage est effectué
ainsi qu’un suivi d’un profil avec, si besoin, ajustement de la profondeur. Un échantillonnage
du mélange frais permet le contrôle des propriétés du matériau. L’emploi d’un système de
supervision dédié permet de contrôler simultanément l’homogénéité du mélange sol-liant et la
quantité de liant injectée, en temps réel.
Le procédé Geomix® permet le mélange de sol en place avec une grande variété
d’applications : amélioration de sol, soutènement ou encore étanchéité.
Le procédé Geomix® est le résultat de l’alliance des techniques de Deep Soil Mixing et de la
technologie Hydrofraise®. Des éléments de sol traité en place de section rectangulaire sont
ainsi créés en passes alternée.
Pour ce faire, deux paires de tambours rotatifs sont utilisées afin de déstructurer, puis
mélanger le sol en place à un coulis de ciment. Cet équipement, aussi appelé CSM (Cutter
Soil Mixing) est compatible avec de nombreux types de porteurs, ce qui apporte une certaine
souplesse d’utilisation.
Le mélange sol/ciment ainsi réalisé peut atteindre des résistances à la compression moyennes
de l’ordre de 6 MPa et des valeurs de perméabilité inférieures à 10-8 m/s.
Utilisées sans renforcement structurel, de telles parois forment des écrans d’étanchéité ou
peuvent être utilisées en amélioration de sols (stabilisation de talus, traitement contre la
liquéfaction).
Avec un renforcement structurel, généralement des profilés métalliques mis en place dans le
mélange, il est alors possible de réaliser des soutènements provisoires ou permanents.
Comme pour une paroi réalisée avec une Hydrofraise®, l’épaisseur de la paroi est calibrée par
l’épaisseur des tambours de l’outillage : de 500 mm à 1 200 mm.
Cette technique permet de réaliser un soutènement provisoire, sous nappe, plus économique,
un soutènement permanent sous brevet, le contrôle de verticalité en temps réel, des écrans de
perméabilité plus faible qu’en paroi au coulis, de réduire la consommation de ressources
(moins d’eau, pas d’ajout d’agrégats) et de limiter les apports de béton ou de matériau
extérieur (seulement le ciment). Cette solution génère peu de déblais produits, ne nécessite
pas de manutention lourde de cages d’armatures et engendre très peu de vibrations. Elle peut
être mise en application à moins d’un mètre de mitoyens existants et sous hauteur limitée. La
construction préalable de murettes guides n’est souvent pas nécessaire, ce qui est un gain de
temps non négligeable.
Le contrôle et le suivi d’une paroi Geomix® se réalisent à différentes étapes de son exécution
et à différents niveaux :
Cette figure illustre les trois principales étapes du procédé Géomix. Ces travaux se font en
passes alternées. Le sol est remanié lors de la perforation et lors du retrait de l’outil. L’outil
ressemble à une hydrofraise au quel a été
ajouté un tube pour injecté le coulis.
3.5.3.6 Springsol®
Le procédé Springsol® fait partie de la large palette d’offres de la famille du Deep Soil
Mixing. Il s’agit d’un outil fixe ou ouvrant permettant de réaliser des colonnes à l’aide d’une
machine de petite perforation qui permettent le renforcement du sol en place.
Initialement, ce procédé a été développé afin de renforcer les plateformes sous voies ferrées
en respectant certaines exigences :
Depuis lors, le procédé est appliqué sur une large palette de travaux d’amélioration de sols.
Outre le renforcement des plateformes ferroviaires, le procédé a permis de réaliser des
renforcements sous dallage, dalle béton ou fondations superficielles, des travaux de
stabilisation de talus ou lors de traitement en place de terrains pollués.
Un outil ouvrant
Un outil fixe :
Cette technique de
renforcement de sol est assez facile et peu contraignante. Elle nécessite un matériel peu
encombrant (machine de petite perforation et centrale de fabrication coulis compacte). Cette
technique est utilisable en hauteur limitée ou en espace confiné. Les risques de désordres sont
limités (très faible risque de tassement, de soulèvement). Aucune vibration n’est engendrée.
Les dimensions de la colonne garanties. Les rejets sont limités.
Le procédé Springsol® avec outil ouvrant se réalise uniquement par voie humide et se
décompose en 5 phases :
Lors de sa mise en œuvre avec un outil fixe, le procédé Springsol® se réduit à l’incorporation
de coulis à faible pression et mélange pendant le forage et un malaxage complémentaire à la
remontée.
Des prélèvements du mélange frais sont également effectués pendant l’exécution, afin de
s’assurer que les paramètres du dimensionnement visés sont bien atteints.
Les machines de petite perforation peuvent réaliser des colonnes dans toutes les positions, de
la verticale à l’horizontale. Il est alors envisageable de construire des colonnes de Soil Mixing
selon une auréole.
Dans certaines configurations, le tubage peut être mis en place pendant la phase de forage
avec l’outil ouvrant pour s’affranchir des coches instables.
Cette technique a été déclinée pour la réalisation de tirants en particulier dans les argiles, la
technique a également fait l’objet d’un brevet.
La stabilisation est assurée par passes en fonction du rayon d’action de la machine, qui est
généralement de 8 à 10 m2 sur une profondeur maximum d’environ 8 m. Une fois que le
volume requis de liant a été insufflé, le malaxage est poursuivi jusqu’à l’homogénéité
optimale.
Ces deux photos montrent d’une part l’outil et d’autre part la machine en action. Les sols
traités sont très visqueux à cause de la forte teneur en eau. L’addition de liant par voie sèche
va permettre de les stabiliser par hydratation de l’eau résiduelle.
Le renforcement de sol par inclusions sont des techniques de renforcement de sol consistant à
inclure dans le sol
des éléments rigides tels que des colonnes en béton ou en mortier, ou d’éléments préfabriqués
battus il s’agit alors de procédés d’inclusion rigide en remplacement des pieux, micropieux ou
de fondations semi-profondes comme les puits en gros-béton ou lorqu’elles sont mises en
place en maillage sous les dallages industriels ou les remblais (routiers ou ferroviaires par
exemple) elles permettent alors de réduire les tassements sous les charges d'exploitation,
ou des éléments souples tels que des colonnes ballastées (graviers, cailloux ou ballast
enfoncés dans le sol) afin de pouvoir réaliser des fondations superficielles sur un terrain en
place dont les caractéristiques géotechniques appelleraient traditionnellement des fondations
profondes ou semi-profondes.
Les inclusions rigides sont une méthode de renforcement de sol très efficace en termes de
réduction de tassement. Cette méthode consiste en la mise en place d’une maille régulière
d’éléments verticaux de forte rigidité (dans la plupart des cas des éléments circulaires en
béton ou mortier). Après renforcement du sol, l’ouvrage à construire est fondé de manière
superficielle (prévoir néanmoins un raidissement des semelles en l’absence de matelas), et les
travaux de génie civil peuvent commencer sans délai d’attente. La compressibilité initiale du
sol et le tassement objectif admissible sont les données d’entrée de la conception qui permet
de déterminer la densité du renforcement de sol.
M a t e la s
La figure ci-contre montre deux
d e r é p a r ti ti o n
(optionnel)
solutions pour renforcer l’assise de
fondations superficielles et limiter ainsi
le tassement de la couche de sol faible et
meuble. La différence entre ces deux
solutions réside à la réalisation ou non
d’un matelas de répartition.
Les éléments des inclusions rigides sont contrôlés avant, pendant et après l’installation, pour
garantir la meilleure qualité possible.
Essais d’informations par des tests de fonçage de l’outil au droit des sondages
de l’étude de sol
Enregistrement des paramètres et attachements
Tests d’intégrité des inclusions, essais de chargement des inclusions, tests de
résistance à la compression des matériaux
Le type et la fréquence des tests sont étroitement liés à la taille du projet et au contexte
géotechnique.
Cette illustration met en évidence les principales étapes pour réaliser un système de
renforcement de sol au moyen d’inclusions rigides.
Lorsque les caractéristiques de sols ne répondent pas aux exigences du projet en terme de
capacité portante ou de tassements, le recours aux techniques de vibrations profondes avec ou
sans apport de matériaux granulaires offre une solution économique d’amélioration de sol. Ils
permettent de revenir à un système de fondations superficielles, applicable à la plupart des
terrains compressibles.
Ainsi, par exemple, le vibreur de conception Keller mesure entre 3 et 4 mètres de long et pèse
environ 2 tonnes. Le moteur électrique interne du vibreur entraine un excentrique qui génère
les oscillations horizontales de l’outil. Le vibreur est assemblé à des tubes-rallonges pour
permettre d’atteindre la profondeur de traitement désirée. L’ensemble est monté en système
pendulaire sur une grue ou sur une foreuse Keller de type TR.
La technique des colonnes ballastées permet de renforcer la structure du sol meuble et faible
par l’enfoncement par vibrofonçage de matériaux pulvérulents nobles dans le sol.
Pour cette deuxième technique, le procédé consiste à faire pénétrer le vibreur au sein des
terrains compressibles et par la suite l’outil vibrant est remonté par passes successives pour
refouler le gravier destiné à réaliser une colonne (colonnes ballastées).
Dans les sols cohésifs, ou les sols granulaires comportant une teneur en fines élevée, la
technique de colonnes ballastées est utilisée. Elle consiste à réaliser des colonnes de
renforcement à l’aide de granulats roulés ou concassés.
Les techniques de vibrations profondes offrent des solutions écologiques, simples à mettre en
œuvre et très efficaces dans l’amélioration des sols. Elles sont utilisées pour tout type de
construction sur des sols à faible portance, sous les dallages et les remblais. Keller a inventé
un vibreur homologué en 1934, utilisé à l’origine pour compacter uniquement des sols
granulaires (sable ou gravier). Depuis, Keller utilise un vaste choix de modèles de vibreurs et
de techniques pour optimiser l’amélioration de sols, qu’ils soient de type granulaire ou
cohésif.
Les techniques de vibrations profondes sont des méthodes polyvalentes d’amélioration du sol
adaptées à toutes sortes de sols et de contraintes. Leur réalisation relativement rapide, même
dans le cas d’un grand volume de sol à traiter, permet d’enchaîner avec les travaux de gros-
œuvre. Il sera possible de recourir par la suite à des semelles superficielles standards (absence
de points durs), et ainsi, réduire les dépenses pour réaliser les fondations.
l s’agit également d’un procédé respectueux de l’environnement car seuls des matériaux
naturels in situ sont utilisés. De plus, la quantité de matériau utilisé durant l’opération est
relativement réduite (entre 2 et 10 % du volume du sol traité).
Ci-dessous un diagramme pour faciliter le choix des techniques et mieux comprendre le mode
opératoire.
Le compactage des matériaux grenus est optimisé lorsque les vibreurs oscillent à une faible
fréquence ; il est ainsi obtenu une densité optimale des particules du sol. Dans ce cas de
figure, le vibreur est fixé à une grue sur chenilles. La pénétration de l’outil dans le sol (et le
compactage lui-même, dans une certaine mesure) est facilitée par le lançage à eau provenant
des orifices d’injection d’eau situés en pointe de l’outil. Le vibrocompactage est réalisé par
passes successives de bas en haut. Le résultat du compactage dépend de l’efficacité du
vibreur, de l’état du sol et de la maille retenue.
En règle générale, une planche d’essais réalisée sur le site permet de déterminer les
paramètres de travail et le maillage pour un réarrangement optimal des matériaux. Une fois le
sol compacté, de lourdes charges allant jusqu’à 1 MPa (généré par 100 tonnes par m²) aux
E.L.S. peuvent être supportées en toute sécurité. Les points de vibrocompactage peuvent être
agencés pour traiter n’importe quel volume de sol. Les résultats d’amélioration obtenus sont
facilement vérifiables par des sondages et essais in situ.
Les vibrations émises par l’outil permettent un réarrangement des matériaux granulaires afin
d’occuper le plus petit volume possible. La réduction du sol compacté peut atteindre 15% de
son volume de départ, selon l’état initial du sol et l’intensité du compactage.
Le compactage de sol à partir d’un point de compactage dépend de plusieurs paramètres. Les
entreprises par leur expérience dans ce domaine et les compétences acquises peuvent proposer
de manière pertinente le type de renforcement le plus approprié possible.
vibrocompactage
Ci-contre une
illustration d’un
autre procédé pour
réaliser des
colonnes
ballastées.
Dans le cas de plot isolé de substitution, le refoulement latéral du matériau compacté par
Induction Hydraulique® permet d’assurer un confinement du sol décomprimé en périphérie.
Ce procédé induit des tassements faibles sous les sollicitations cycliques (machines vibrantes,
éoliennes, turbines). Le compactage optimal des matériaux de substitution peut être obtenu
même sous l’eau.
La technique
d’induction
hydraulique permet
d’améliorer
l’efficacité de la
vibration. Ci-contre,
ce procédé est associé
à d’autres techniques
d’amélioration des
sols. Ici il est en
complément
d’insertions rigides
surmontées d’un
matelas de répartition
dans le quel viendront
prendre assise les
fondations d’une nouvelle construction en mitoyenneté d’un bâtiment construit
ultérieurement. Ainsi, les charges futures de la construction projetée ne perturberont pas de
manière significative l’assise de l’ouvrage mitoyen. Cette technique a permis dans ce cas de
se dispenser de fondations spéciales.
Les plots ballastés utilisent la technique du compactage dynamique pour incorporer dans le
sol du matériau d'apport en grande quantité. Ceci permet d’augmenter la capacité portante, de
diminuer les tassements, de supprimer le potentiel de liquéfaction et d’éviter la formation de
dolines (dépressions de formes circulaires).
Les sols et les remblais granulaires traités ont une densité, un angle de frottement et une
rigidité accrus. Cette technique peut également améliorer les conditions de sol sur les terrains
médiocres dans la mesure où des fondations superficielles peuvent être utilisées sans
excavations profondes ou pieux.
La substitution des remblais compressibles et/ou contaminés peut parfois être évitée.
Ci-contre, deux
silhouettes pour
caractériser les deux
principales étapes pour
réaliser des plots
ballastés.
au fur et à mesure de sa remontée. Une fois la partie rigide de la CMM® installée jusqu’au
niveau prévu, une colonne de gravier refoulée latéralement, est mise en œuvre en descendant
un vibreur dans le béton frais pour réaliser la zone de recouvrement. Sa longueur est adaptée
aux caractéristiques du projet (niveau des fondations peu profondes, radiers et dalles,
stratigraphie du sol). Typiquement, la hauteur de la partie souple est comprise entre 1,0 et 1,5
m même si elle n’est pas limitée en hauteur.
Cette technique permet d'envisager des fondations superficielles en présence de sols très
compressibles et organiques, d’augmenter la capacité portante des sols et peut reprendre des
charges élevées, de réduire les tassements de manière très efficace (avec un facteur de
réduction de l'ordre de trois à plus de huit), de résister aux efforts horizontaux sans la mise en
place d’un matelas intercalaire entre la CMM® et la fondation (très bien adaptée aux zones
sismiques).
Il est à noter que l’effet de point dur devient négligeable sous un dallage, des fondations, ou
des voiries. Les risques de dommages de la partie rigide de la CMM® par des travaux
annexes sont très limités.
Les travaux de construction peuvent, dans la plupart des cas, commencer immédiatement
après l'amélioration du sol. Il n’y a pas de déblai ce qui permet d’éviter l’évacuation des sols
pollués.
Les colonnes mixtes sont contrôlées avant, pendant et après l'installation pour garantir la
solution la plus appropriée. Plusieurs tests peuvent être effectués parmi lesquels :
Essais au pénétromètre statique dans la partie souple de la CMM® pour vérifier les
paramètres de production des colonnes.
Enregistrement des paramètres d’exécution et attachement.
Essai de chargement de la colonne, essai de résistance à la compression du matériau de
la partie rigide de la CMM®, vérification du diamètre de la colonne.
Étapes :
Pour combler les cavités, par exemple les cavités karstiques, la société Spie a mis au point un
procédé pour réaliser des injections de comblement qui visent à remplir les vides naturels
(dissolutions, karsts, marnières) ou artificiels (carrières, mines, galeries) pour éviter les
effondrements de terrain.
Pour pallier les difficultés d’accès, les travaux sont en général effectués depuis la surface, par
l’intermédiaire d’un maillage de forages au travers desquels un coulis de remplissage est
injecté. Des barrages peuvent être mis en place en galerie pour délimiter les zones à traiter.
Selon le volume à combler, le coulis est fabriqué sur place ou livré prêt à l’emploi. Sa
composition est établie en fonction des caractéristiques des vides rencontrés et des objectifs
de traitement fixés. Pour les chantiers impliquant de grandes quantités, plusieurs unités de
fabrication sont installées afin d’accroître la production quotidienne, qui peut alors dépasser
500 m³ par centrale.
Les travaux de forage font l’objet d’enregistrement de paramètres numériques puis d’une
analyse systématique des anomalies rencontrées. Ceci nous permet de planifier les travaux
d’injections durant lesquels la fabrication et la mise en œuvre des coulis sont pilotées et font
l’objet d’une acquisition informatique.
Ces données permettent de vérifier la qualité du travail effectué à toutes les étapes de la
production, au travers de bilans multicritères et de synthèses des quantités injectées.
Le procédé des voûtes parapluie qui est utiliser pour creuser des galeries souterraines peut se
rencontrer sous 3 formes particulières :
a) L'enfilage en calotte :
C'est une extension du procédé précédent: l'objectif, plus large, est de créer une véritable
structure de soutènement, constituée de tubes métalliques (ou plus généralement de pieux)
disposés en couronne sub-horizontale suivant le contour de la section qui sera excavée et
prenant appui sur des cintres posés au fur et à mesure de l'avancement.
Le soutènement en arrière du front est complété par mise en œuvre de béton projeté entre les
cintres, associé éventuellement à un boulonnage radial.
Il s'agit de structures beaucoup plus rigides pouvant atteindre plusieurs dizaines de mètres de
longueur, constituées de tubes métalliques de forte inertie. Si nécessaire, ces structures
peuvent être renforcées : tubes remplis de béton, jointifs, connectés.
L'utilisation de "jet-grouting"
permet d'étendre le procédé à des
terrains plus fins sans cohésion :
sable, limons.
Tout d’abord, à l’aide de l’adresse du chantier avec des outils tels que « Maps »,
« Géoportail », « Google Earth » ou bases de données SIG, il est possible de découvrir
l’environnement :
urbain, périurbain, campagne, montagne, littoral
Exemple :la commune de Villard les Dourbes envisage de réaliser un réservoir d’eau potable
(avec captage des eaux d’une source) sur la parcelle 377 de 3 030m².
La toponymie, La toponymie est une discipline linguistique qui étudie les toponymes, c'est-à-
dire les noms propres désignant un lieu. Elle se propose de rechercher leur ancienneté, leur
signification, leur étymologie, leur évolution, leurs rapports avec la langue parlée
actuellement ou avec des langues disparues. Avec l'anthroponymie (étude des noms de
personnes), elle est l'une des deux branches principales de l'onomastique (étude des noms
propres), elle-même branche de la linguistique.
Les articles de presse ou sur internet qui peuvent notamment nous informer de risques de
sinistres ou de catastrophes naturelles survenues dans la région.
Les documents archivés par les organismes d’Etat sont également de précieuses sources de
renseignements pour connaitre l’histoire récente de la zone (marais asséchés, zones d’activités
industrielles, anciennes constructions, anciennes carrières, anciennes exploitations minières
…).
En se rendant sur place, il ne faut pas hésiter de rencontrer les élus, les locaux afin qu’ils nous
renseignent sur l’histoire des lieux avec plus ou moins de précisions ou de fantaisie
(éboulement, sources …)
Sur place, il est important d’observer la couverture du terrain qui doit nous renseigner sur
l’activité humaine assez récente, la présence de végétation peut nous renseigner sur la fertilité
ou l’infertilité des sols, leur acidité ou non, la présence d’eau …. L’observation de la
localisation du terrain, en plaine, à flanc de montagne, de la position des canaux d’évacuation
des eaux, de discontinuité de la topographie (lignes de ruptures), d’affleurement rocheux, de
rochers transportés durant l’ère glacière, de terrils … est importante pour confirmer et
compléter les enquêtes préliminaires ou celles qui vont suivre. Par conséquent, l’observation
de l’état de la surface et du faciès autour de la zone projetée peut être très riches en
renseignements.
Une autre source de renseignements est constituée par les cartes géologiques et celles établies
par les spéléologues si la région permet ce type d’activité.
ratio occupation des ouvrages sur la surface disponible du terrain, les points topographiques
avant et après interventions, les possibilité d’accès et les conditions de viabilisation ou
d’amener l’eau potable, l’électricité, le téléphone, l’internet, le gaz et d’évacuer les déchets et
les eaux usées.
En outre, il se peut qu’il y ait eu d’autres campagnes d’essais de sols à proximité de la zone
projetée.
En présence de terres fertiles ou non en surface, les photographies des essences présentes ou
les divers échantillons prélevés (en indiquant leur localisation) sont des éléments de base pour
identifier la nature des couches superficielles et l’importance ou non de l’activité organiques.
Ces essais consistent à réaliser des trous ou des tranchées avec des outils manuels ou avec des
engins de chantier.
Ces différentes photographies montrent des reconnaissances de terrain diverses : un sol qui a
l’air de bien se tenir, une fouille contre mitoyen périlleuse, une mini pelle qui risque de
s’enliser dans un terrain gras et chargé d’eau et enfin une fouille inondée par la présence
d’une nappe d’eau.
Ce test consiste à réaliser une excavation, puis à la remplir d’eau pour noter le temps
nécessaire pour qu’elle se vide.
Cependant, bien qu’en apparence ce test parait simple, l’agglomération du Grand Chambéry,
par exemple, a édité une fiche pour l’aide à la conception et à la réalisation de tests
d’infiltration adaptés.
En effet, les tests d’infiltration in situ permettent une évaluation suffisamment solide de la
capacité d’infiltration, à condition qu’ils soient adaptés, correctement réalisés et exploités.
Notons que les essais en laboratoire ne sont pas adaptés par exemple pour reproduire
correctement les conditions réelles de l’infiltration des eaux pluviales.
Les tests d’infiltration font souvent l’objet de multiples interrogations sur les modes
opératoires et l’interprétation des mesures : Quel type de test réaliser ? Combien faut-il en
faire ? A quelle profondeur ? Comment tenir compte de la variabilité du sol et quelle valeur de
vitesse d’infiltration retenir ? Comment tenir compte de la saturation possible du sol ? Faut-il
appliquer un coefficient de sécurité ? … Et, sur un territoire, il est souvent constaté une
grande diversité des pratiques en la matière, avec des écarts souvent significatifs entre les
valeurs de référence retenues d’une méthode à l’autre.
Des trous à la tarière peuvent également être réalisés, en complément des fouilles à la pelle
mécanique. Ils présentent l’avantage de la simplicité et de la rapidité de réalisation. Ils
n’offrent pas la même vision des sols en place que les fouilles à la pelle mécanique mais
peuvent permettre de vérifier l’homogénéité des couches les plus superficielles.
Une zone hydromorphe est généralement située en un point bas topographique, aux abords de
cours d'eau ou de fossés. La végétation caractéristique des zones hydromorphes se compose
de roseaux et de Phragmites. Une coupe dans le sol, ou un sondage à la tarière, met en
évidence des caractéristiques précises de l'hydromorphie : L'hydromorphie, appelée aussi
hydromorphisme, est la qualité d'un sol qui montre des marques physiques de saturation
régulière en eau, généralement durant l'hiver. Il est à noter qu’elle occasionne l'asphyxie de la
microfaune et de la microflore, provoque la disparition des bactéries aérobies au profit des
bactéries anaérobies à l'origine de la production de nitrites (bactéries dénitrifiantes), de la
déstructuration des argiles et du complexe argilo-humique qui entraîne la libération des
cations Fe3+ et Al3+, substances toxiques et allélopathiques. Par ailleurs, la saturation en eau
a également des conséquences physico-chimiques. Dans un sol argileux, l'hydromorphie se
repère assez facilement.
des taches rouille, qui correspondent au fer à l'état
oxydé. Le sol n'est pas saturé en eau actuellement mais
est susceptible de contenir de l'eau. On se trouve en
période sèche. Présence d'une nappe qui remonte
périodiquement ;
Ci-dessous le tableau édité par le Grand Chambéry pour présenter les différents moyens pour
réaliser l’excavation pour effectuer les tests d’infiltration :
Cette solution , ainsi que le trou cylindrique à la tarière à main et le trou réalisé à la pelle à
main ne permettent pas de tester l’infiltration à des profondeurs supérieures à 1.00 m.
Les excavations réalisées avec des engins mécaniques permettent de tester l’infiltration à des
profondeurs allant jusqu’à 5m voire un peu plus. Cependant, il faut prévoir l’amenée et le
repli de matériel assez lourd.
Les fosses réalisées à la pelle mécanique peuvent présenter une sensibilité aux « effets de
bord » souvent assez limitée avec ou sans la scarification des parois après la réalisation du
trou. Elles permettent une bonne visualisation du profil pédologique. Cependant, à chaque
essai le volume d’eau nécessaire est de l’ordre de 3 m 3 en moyenne ce qui peut souvent
nécessiter une citerne mobile.
Il faut de préférence effectuer ces tests durant les périodes où les conditions sont défavorables
en termes de saturation des sols et de niveau des nappes phréatiques : en période hivernale
(entre la fin de l’automne et le début du printemps) ou après plusieurs jours pluvieux.
La profondeur des tests doit correspondre aux horizons où le projet va être aménagé. Cela
nécessite de bien tenir compte des éventuels mouvements de sols prévus par le projet dans le
secteur pré-identifié pour l’infiltration des eaux pluviales.
Le niveau de remplissage doit être comparable à ce qui est envisagé a priori dans le futur
dispositif d’infiltration.
Les tests réalisés à l’aide d’une pelle mécanique, permettent de tester également les couches
plus profondes (dans un autre trou), pour identifier la présence éventuelle d’une couche moins
perméable qui pourrait favoriser la saturation des couches supérieures, même si le dispositif
d’infiltration envisagé a priori est peu profond.
Mode opératoire :
La durée totale d’un test est généralement comprise entre une demi-journée et une journée. Le
protocole pour la réalisation de trous avec une pelle mécanique :
1. Réaliser le trou
2. Faire en sorte que le trou ne puisse pas être alimenté par des ruissellements en cas de
pluie (constitution si besoin de petits merlons autour du trou),
3. Scarifier les parois pour limiter le compactage qui a pu s’opérer lors de la réalisation
du trou,
4. Mesurer précisément les dimensions du trou,
5. Remplir le trou (noter le temps pour le remplir)
6. Mesurer l’évolution du niveau d’eau à intervalle de temps régulier. Dans un premier
temps au moins, l’intervalle sera de quelques minutes maximum. En fonction des
résultats des premières mesures, il pourra être plus espacé,
7. Lorsque la vidange est quasiment totale (les derniers centimètres d’eau peuvent mettre
beaucoup de temps à s’infiltrer, il n’est pas nécessaire d’attendre qu’ils le soient
totalement), remplir à nouveau et effectuer un nouveau cycle de mesures.
Si la vidange est lente mais visible, effectuer au moins 2 cycles de mesure, quitte à
effectuer un nouveau remplissage sans attendre que la première vidange soit
quasiment totale,
Si la vidange est particulièrement lente, si bien que 2 heures après le remplissage la
baisse n’est pas visible (inférieure à 0,5 cm), il n’est pas utile de poursuivre le test. La
vitesse d’infiltration est dans tous les cas très faible (inférieure à 7.10-7 m/s).
Il est également envisageable de mesurer le volume d’eau à apporter pour maintenir un niveau
constant. Cette méthode bien que moins facile à mettre en œuvre peut être envisagée pour la
moitié des puits.
Quel que soit le principe de mesures retenu, il faut tout noter afin de mettre à profit la richesse
des informations apportées.
Sur la base des calculs et analyses réalisés pour les différents tests, détermination de la
vitesse d’infiltration à retenir pour le dimensionnement du futur dispositif
d’infiltration, en tenant compte à la fois des possibilités d’hétérogénéité des sols et de
colmatage du dispositif au cours du temps.
Pour déterminer la vitesse d’infiltration de référence associée à chaque test, il est nécessaire
de prendre en compte la variation de celle-ci en fonction de la charge (de la hauteur d’eau
dans le trou) et du degré de saturation des sols.
La gamme des vitesses d’infiltration que l’on peut rencontrer est très large. Sur le territoire,
elle est le plus souvent comprise entre 10-3 et 10-7 m/s. L’illustration ci-dessous présente, à
titre indicatif, les gammes de perméabilités pouvant être rencontrées en fonction du type de
sol et de sa granulométrie.
Seuls des tests d’infiltration in situ, adaptés, correctement réalisés et exploités, permettent une
évaluation suffisamment solide de la capacité d’infiltration à prendre en compte pour le
dimensionnement des ouvrages.
Le contrôle de la densité en place d’une plateforme ou d’un corps de chaussée est primordial.
Le densitomètre à membrane est un procédé traditionnel permettant de mesurer le volume
d’une cavité réalisée dans la couche à contrôler et dont le sol a été soigneusement extrait pour
en déterminer le poids total humide puis le poids total sec.
fixer la plaque sur laquelle est maintenu le densitomètre (dont l’extrémité est protégé
par un disque blanc) au moyen des 4 chevillettes et de la massette
désolidariser le densitomètre de l’embase au moyen des deux écrous moletés
ôter le disque blanc
repositionner le densitomètre (sans le disque blanc) et le solidariser à la plaque à l’aide
des deux écrous moletés
appliquer une pression initiale d’environ 5 kPa
mesurer et noter le volume V0 (distance entre la bague argentée sur l’axe et l’embase
haute du densitomètre)
désolidariser à nouveau le densitomètre de l’embase au moyen des deux écrous
moletés et le poser sur le disque blanc
creuser un trou d’essai avec des parois le plus lisses possible et récupérer
intégralement le sol extrait pour réaliser cette cavité dans un sac
repositionner à nouveau le densitomètre (sans le disque blanc) et le solidariser à la
plaque à l’aide des deux écrous moletés
appliquer à nouveau une pression si possible identique à celle initiale
mesurer et noter le volume V1 (distance entre la bague argentée sur l’axe et l’embase
haute du densitomètre)
enlever la pression qui a été exercée
ôter les 4 chevillettes
désolidariser à nouveau le densitomètre de l’embase au moyen des deux écrous
moletés
mettre en place le disque blanc dans l’encoche de la plaque
repositionner le densitomètre avec le disque blanc et le solidariser à la plaque à l’aide
Cet essai permet donc de connaitre la masse volumique en place au moyen de la formule
suivante :
[4_1]
Le carottage (en anglais diamond drilling, ou core drilling) est un type de forage
d'exploration, visant à prélever un échantillon du sous-sol terrestre ou marin obtenu à l'aide
d'un tube appelé carottier que l'on fait pénétrer dans le sous-sol 1. L'échantillon ainsi obtenu
s'appelle une carotte (par analogie avec la racine de la plante du même nom, la carotte). Celle-
ci est qualifiée d'échantillon stratigraphiquement représentatif, donc non perturbé.
Le carottage est utilisé dans de nombreux domaines notamment pour caractériser les bétons
utilisés pour réaliser les ouvrages de fondations mitoyens à ceux projeter ou pour assurer la
reprise en sous œuvre de porteurs existants :
Ci-dessus une carotteuse fixée sur rail de guidage et ci-contre un exemple de reprise de
fondations de poteau sur chevêtre en métal supporté par plusieurs micropieux. Des
carrotages ont été nécessaires pour conforter les hypothèses de calcul.
Le carottage du sol a pour principal objectif de visualiser les différentes couches traversées
sur la profondeur du forage et de recueillir des échantillons sous forme de carotte afin de
pouvoir les analyser, les remanier pour faire subir aux différentes particules du sol ainsi
recueillies différents essais de laboratoire plus ou moins sophistiqués.
Ci-dessous, côte à côte, à gauche du matériel portable pour effectuer des carottages dans des
formations meubles et à droite les carottes obtenues :
Le contenu des carottes est plus ou moins compact. Lors du transport, les carottes vont être
soumises à des vibrations et à des variations de température et d’humidité.
Le sol ainsi extrait, dès son arrivée au laboratoire, a déjà été remanié. Par conséquent,
l’exploitation des résultats des différents essais de laboratoire devra impérativement en tenir
compte.
Elle peut être mesurée ponctuellement par une sonde manuelle, ou régulièrement à l’aide
d’enregistreur automatique, avec données télétransmises pour le plus perfectionné. Les
mesures sont réalisées dans des forages, puits ou piézomètres.
La mesure de profondeur de la surface de la nappe d’eau souterraine est exprimée soit par
rapport au sol en m, soit par rapport à l’altitude zéro du niveau de la mer en m NGF
(Nivellement Général Français).
L’illustration ci-contre
montre l’exemple d’une
nappe située à 5 m de
profondeur, et schématise
l’influence d’un pompage
La retranscription
cartographique de la surface de la nappe d’eau souterraine se lit comme une carte
topographique. Les courbes de niveau ou isopièzes donnent des indications sur le sens des
écoulements et leur vitesse. L’analyse des fluctuations des niveaux piézométriques permet de
déterminer des cycles de recharge et de vidange de la nappe, hautes eaux et basses eaux, à des
échelles de temps annuelles ou pluriannuelles.
Elle permet également de déceler des interactions entre exploitation de différents ouvrages.
Des piézométries peuvent être mesurées à différentes échelles : d’un ouvrage à plusieurs
nappes, suivant les objectifs poursuivis.
Un essai de charge sur plaque ou essai de charge statique sur plaque ou encore essai à la
plaque est un essai visant à déterminer la résistance à la compression et la capacité portante
des sols et des matériaux d’une plateforme
Dans tous les projets de construction d’infrastructure, les terrassements modifient la forme du
terrain naturel et s’achèvent par la réalisation d’une surface spécifique dénommée plateforme.
Sur cette dernière sera construit un ouvrage (un corps de chaussée, un matelas de répartition,
un radier …). La réalisation de cette plateforme fait appel aux règles de l’art qui sont
consignées dans le guide de réalisation des remblais et des couches de formes (LCPC-Sétra,
1992). Des règles et préconisations similaires sont décrites dans les DTU, normes ou
référentiels techniques spécifiques (RFF)
Pour tous ces objectifs la notion de portance est transverse et elle intervient pour caractériser
les besoins de chaque étape de la vie de l’ouvrage.
Les résultats escomptés pour la portance sont très souvent fixés de manière contractuel dans
les marchés de travaux. Ils traduisent à la fois les objectifs CT et LT. Et le choix des outils
pour mesurer le module de déformabilité fait débat (essai à la plaque statique ou dynamique
présenté au point suivant suivi d’une conclusion).
L’essai de charge statique sur plaque sert de preuve de l'aptitude des sols et sous-sols à servir
de terrain constructible selon les normes française NF P 94-117-1 pour différentes
constructions et notamment des fondations et des routes et permet également de contrôler le
compactage d'une couche de fondation.
Description de l’essai :
L'essai est réalisé sur le terrain avec un appareil d'essai de charge à plaque. La plaque est un
plateau de charge circulaire normé, mis en charge et déchargé à plusieurs reprises par un
dispositif de pression sur le substrat à une certaine pression et à un certain intervalle. Un
camion, une excavatrice ou un équipement lourd similaire est utilisé comme contrepoids (de
son poids dépend la charge maximale qui peut être appliquée lors de l'essai). Deux de ces
dispositifs sont présentés ci-dessus.
[4_2]
où
p pression moyenne appliquée sous la plaque en MPa (0.20)
[4_3]
Il est également possible de calculer EV1 de la même manière que pour EV2 :
[4_4]
où
p pression moyenne égale à 0.25 MPa appliquée sous la plaque
[4_ 5]
Quand K tend vers 1, ceci signifie que la plate-forme est peu déformable ou autrement dit,
plus il est faible plus le compactage est élevé. Une valeur seuil de 2 est couramment admise
comme seuil de recevabilité d’une plateforme.
Il n’existe pas de valeurs de tassement acceptable présentées dans les normes, mais seulement
une valeur du coefficient de réaction de WESTERGAARD noté kw. Sa détermination se fait
également par le chargement d’une plaque circulaire, décrite dans la norme NF P 94-117-3 et
il est déterminé à partir de la formule suivante :
[4_6]
avec
P la pression moyenne exercée sous la plaque chargée P=70kPa
Il est à noter que la moyenne qui a été observée pour le module EV3/EV2 est proche de 1 ce
qui montre qu’une fois la mise en charge du massif obtenue, le tassement n’est plus
significatif
Il comprend :
les capteurs intégrés dans la plaque de charge : le capteur de force constitué de trois
rondelles piézo-électriques de grande rigidité ; le capteur de déplacement sans contact
monté sur un socle suspendu et amorti,
le bâti de manœuvre avec la fourche, le vérin de basculement et la centrale
hydraulique,
le codeur de distance parcourue pour le repérage dans le profil en long.
Placé à l'intérieur de la cabine, le système électronique est constitué par :
un coffret d'interface avec commande de puissance de l'automatisme et
conditionnement des capteurs de force et de déplacement,
un micro-ordinateur industriel portable avec carte de conversion analogique
numérique, carte de comptage et logiciel résident pour la commande de l'automatisme,
l’acquisition, le traitement des données et l’affichage des résultats,
une imprimante.
L’appareil est utilisable sur des plates-formes dont la rigidité peut atteindre 250 MPa,
constituées par des matériaux de dimensions inférieures à 200 mm.
L'intégration de l'appareil sur un véhicule porteur de moins de 3,5 tonnes lui confère une
excellente mobilité à la fois sur chantier et sur route et une grande rapidité d'intervention.
Applications
mesure de la déformabilité des plates-formes de terrassement et des couches de forme,
L’allure de la courbe est proche de celle obtenue avec l’essai statique de charge sur la plaque.
4.2.3.3 scissomètre
Le scissomètre est un instrument utilisé en mécanique des sols pour mesurer la cohésion de
certains sols fins (exemple : argiles, limons, vases). L'appareil mesure sa résistance au
cisaillement sous contrainte normale nulle (unité : MPa mégaPascal), dans une situation non
drainée (c'est-à-dire à l’état naturel).
En général une tige métallique avec des pales a son extrémité est enfoncée dans le sol en
limitant les remaniements inévitables. Les pales sont mises ensuite en rotation par un couple
de torsion dans l'axe de la tige (mieux si la vitesse angulaire est constante) : la rupture du sol
est progressive. La vitesse de cisaillement des sols influe beaucoup sur les résultats des essais
(courbe scissométrique).
En pratique, le scissomètre dont les dimensions des pales sont de l’ordre du décimètre est
enfoncé par vérinage au sein d’un forage au niveau où la mesure a été prévue d’être effectuée.
[4_7]
Le premier terme représente les résultantes des efforts de cisaillement sur la surface latérale
du cylindre inscrit aux pales.
Le deuxième terme représente les résultantes des efforts sur les deux bases de ce cylindre.
Ceci suppose que le forage qui a été réalisé correspond au diamètre de la tige et que ce dernier
a été négligé.
avec
τ contrainte de cisaillement
[4_8]
[4-9]
[4_10]
Soient Cuh la cohésion non drainée horizontale et Cuv la cohésion non drainée verticale, il en
résulte alors :
[4_11]
Pour déterminer les cohésions non drainées horizontale et verticale Cuv et Cuh, il suffit
d’utiliser d’effectuer deux essais avec des pales géométriquement différentes. Ce qui conduit
à :
[4_12]
[4_13]
L’essai au vane-test (décrit au sein du chapitre dédié aux essais de laboratoire) a l’avantage
d’être rapide et simple, il présente par contre les inconvénients suivants :
la valeur de la cohésion obtenue dépend dans une large mesure de la vitesse de
rotation
difficile de lutter. Pour cela, il faut réduire l’épaisseur des pales qui doivent cependant
présenter une solidité et rigidité suffisantes.
Ce test a été mis au point par Biarez. Il s’agit d’un essai scissométrique dans lequel la
contrainte normale est maîtrisée et elle peut être mesurée.
[4-14]
avec
C cohésion, τ quand σ est nul
A partir de deux essais dans le même matériau permet de déterminer les caractéristiques C et
φ en condition non drainée de la même manière que l’essai à la boite de cisaillement ou avec
l’essai triaxial de laboratoire.
La sonde est enfoncée par battage ou par vérinage, en fond de forage au niveau où la mesure
doit être effectuée.
La plage des pressions qui peut être utilisée est comprise entre pmin et pmax qui correspondent
respectivement à environ la pression des terres au repos et pression d’apparition de la zone
plastique ou pression de fluage (cette notion sera développée dans a présentation de l’essai
pressiométrique de Ménard).
Quatre essais à des niveaux différents et en appliquant les pressions suivantes (pour chaque
niveau) : pmin, (pmax+pmin)/3, (pmax+pmin)/2, 2(pmax-pmin)/3 et pmax.
Cet essai nous permet d’obtenir en phase élastique quatre valeur du module d’YOUNG par la
formule classique :
[4_15]
avec
R0 et h sont le rayon et la hauteur du cylindre sur lequel est appliquée la pression
Résultats :
Le rhéotest présente le même inconvénient de tous les autres test in-situ : le non contrôle des
pressions interstitielles.
à carotter.
Cet essai a été mis au point par Ménard. Une sonde à trois cellules est mise en contact avec le
sol dans un forage. Les deux cellules de garde permettent à la cellule du milieu d’exercer une
pression cylindrique uniforme mesurable avec le minimum de parasitage. Ainsi, cette cellule
appelée par la suite cellule de mesure va permettre de mesurer l’augmentation de son volume
ΔV qui est en lien avec une variation de pression ΔP lorsque celle-ci est placée à la
profondeur z où le sol doit être testé.
Ci-contre, un schéma
coloré pour mieux
visualiser les circuits de
l’eau et du gaz et les
zones sur lesquelles ces
fluides impliquent des
pressions.
Afin de placer la sonde au niveau désiré pour effectuer la mesure et de pouvoir la retirer, il
convient de la fixer à l’extrémité d’un train de tiges qui, dans un but de simplification n’a pas
été représenté sur ce schéma.
L’ensemble de l’appareillage est léger et simple. Par conséquent, la mise en œuvre est facile.
Cependant, l’essai pressiométrique nécessite la réalisation d’un forage préalable (dont les
parois ne doivent pas s’effondrer) jusqu’au dernier niveau de mesure compris. Ceci impose
l’emplois de matériels spécifiques afin de limiter les temps d’exécution.
Au sein d’un même forage, plusieurs essais vont être effectués. Ainsi, à la verticale d’un
point, une série d’essais espacés d’un mètre par exemple qui constitue un « sondage
pressiométrique » dont la profondeur varie le plus souvent de 5 à 30 m.
Pour des raisons évidentes une première précaution sera de ne pas forer par avance jusqu’à la
profondeur maximale à atteindre mais de faire progresser le forage au fur et à mesure des
essais afin que le sol se décomprime le moins possible.
L’outil qui est le mieux adapté est la tarière à la main qui découpe le sol et laisse pratiquement
intactes les parois du trou. Cependant, dans les niveaux sableux sous nappe se produisent
inévitablement des éboulements entre le moment où la tarière est retirée et celui où la sonde
est mise en place. Dans cette situation, il est impératif de forer à la boue qui consiste à injecter
une suspension de bentonite par l’intérieur du train de tiges au niveau de l’outil. La boue
induit deux effets favorables pour le maintien des parois : d’une part, elle forme avec le sol un
« gel » cohérent t d’autre part, sa densité qui est plus importante que celle de l’eau engendre
une poussée hydrostatique à l’intérieur du trou, de plus les sédiments délayés remontent à la
surface ce qui permet une réduction du nombre des opérations.
Cependant, dans les argiles très raides, l’énergie dépensée par deux opérateurs devient
insuffisante. Dans ce cas, il est nécessaire de mettre en œuvre des moyens mécanisés. Le
battage de carottiers de petit diamètre (environ 60 mm) semple peu satisfaisant car de tels
outils ont un indice de surface déplorable et maltraitent le sol. Le forage par rotation à l’aide
de mèches hélicoïdales pleines peut donner de meilleurs résultats bien que le jeu fonctionnel
entre chaque élément entraîne un sur alésage.
Pour les vases ou tourbes dans lesquelles la tenue du forage ne peut pas être maintenue, la
sonde doit être directement vérinée dans celles-ci. Mais cette manière de procéder induit une
pré-compression du sol donc une surestimation de ses qualités.
A partir de ce qui a été exposé au sujet des moyens à envisager pour introduire la sonde, il
faut retenir que la tarière à main doit être utilisée à chaque fois que cela est possible. Mais,
souvent pour des raisons de rentabilité à court terme ou le choix de délais d’exécution court, il
est décidé d’avoir recours une foreuse ou une sondeuse. Or ces machines induisent un
affaiblissement des qualités mécanique induites par le remaniement des sols. Certes cette
situation place l’opérateur du côté de la sécurité mais entraîne un surdimensionnement
couteux des ouvrages.
Il est à noter également que la pression qui règne à l’intérieur de la sonde est en partie
absorbée par la déformation de l’enveloppe. Cette inertie est déterminée par étalonnage avant
d’effectuer l’essai. Ainsi, lors de l’essai, il est possible de superposer les deux courbes ci-
dessous :
Pour la suite de l’exposé, toutes ces corrections seront supposées être effectuées.
L’essai est réalisé en augmentant la pression par paliers. Pour chacun d’eux, les
augmentations de volume ΔV sont notées au bout de 15, 30 et 60 secondes.
Résultats :
Nous pouvons constater que cette courbe est constituée de trois parties.
La deuxième partie comprise entre PA et PB est presque rectiligne et peut donc être assimilée à
une droite. Cette droite correspond à un comportement pseudo-élastique du sol. P B est
habituellement notée Pf qui correspond à la pression de fluage.
La troisième partie comprise entre P B à Pl est curviligne avec une forte croissance semblable à
une hyperbole. Cette courbe présente une asymptote verticale d’abscisse P l. Pl est la pression
limite. Théoriquement, l’essai n’est valable que si la pression limite a été atteinte en dix
paliers égaux. Or ceci suppose la prédétermination de celle-ci. En pratique, il est accepté un
nombre de paliers compris entre 6 et 14.
Les courbes ci-dessous correspondent d’une part à la courbe ΔV60 en fonction de la variation
de la pression par paliers dont le nombre est compris entre 6 et 14 partie a), et d’autre part la
courbe dite de fluage qui traduit les variations de la déformation différée(ΔV60+ΔV30) en
fonction de la variation de la pression partie b).
Il est à rappeler que le fluage est le phénomène physique qui provoque la déformation
irréversible différée (c'est-à-dire non instantanée) d’un matériau soumis à une contrainte
constante. Le fluage ainsi que la relaxation de contrainte sont deux méthodes en quasi statique
de caractérisation des matériaux visqueux.
Cependant, la plupart des procès-verbaux d’essai pressiométrique ne précise que les deux
dernières grandeurs.
L’ensemble des mesures effectuées à l’aplomb d’un point est consigné dans un graphe comme
ci-dessous :
Sur cette fiche de rapport d’essai, il est à noter que les informations suivantes devraient être
ou sont à indiquer :
la date et l’heure e l’essai
Critiques de l’essai :
Le principal inconvénient est que cet essai conduit à des caractéristiques mécaniques qui ne
sont pas intrinsèques du matériau testé. Par conséquent, les résultats ne sont exploitables
qu’au travers de méthodes qui lui sont propres. Ces méthodes indiquées par MENARD sont
bien adaptées aux problèmes de fondations car elles permettent de répondre à partir d’un seul
essai à la fois à la question de la charge portante (déterminée à partir de la pression limite !) et
à celle du tassement (à partir du module pressiométrique). Par contre, il faudra pour calculer
des soutènements ou des stabilités de pentes en revenir aux caractéristiques mécaniques C et φ
à l’aide de corrélations empiriques. Dans la majorité des cas, il est préférable de les calculer
directement ou d’avoir recours à d’autres essais in-situ ou en laboratoire pour corréler les
résultats obtenus.
A titre de vérification, il est souvent admis que p l = 1.50 pf et que E/pl est constant pour
chaque type de sol ou classe de sol.
La cote du substratum ;
Une valeur approchée de la force portante en vue de pré-dimensionner des
fondations.
L'essai DPT est le plus simple et le moins coûteux des essais in situ, ce qui explique qu'il est
le plus utilisé.
Principe de l’essai
La pénétration dynamique consiste à enfoncer dans le sol, par battage et de manière quasi-
continue, un train de tiges muni à son extrémité d’une pointe fixe ou mobile. Le nombre de
coups de mouton correspondant à un enfoncement donné (e =10cm ou 20cm) est noté au fur
et à mesure de la pénétration de la pointe. Il existe deux types d’appareils à savoir :
Généralement cette hauteur est prise égale le plus souvent à 20, 25, 30 ou 75cm. En résultat,
la résistance à la pénétration dynamique qd est déterminée.
[4-16]
Avec :
M : masse du mouton (kg)
Les résultats des essais sont représentés par des graphiques donnant, en fonction de la
profondeur atteinte par la pointe :
o Soit le nombre de coups N nécessaires pour obtenir un enfoncement e
déterminé,
Certains appareillages pour effectuer les essais de pénétromètre dynamique léger sont
contenus dans des malles (en bas à gauche) et d’autres sur porteurs déplaçables à la main où la
remontée et la chute de la masse ont été asservis (avec moteur thermique) pour rendre cet
essai plus rapide (en bas à droite). Ci-dessous deux photographies pour montrer ces deux
modèles :
L’étude de sol est utile pour comprendre la nature et les caractéristiques d’un sol. Elle
contribue à limiter les risques environnementaux préalablement à la construction d’un
ouvrage. Les missions du géotechnicien présentées en préambule ont pour but de définir le
type de fondation, la profondeur des assises ou encore la résistance des sols. A partir des
différents éléments fournis pour cette le géotechnicien va pouvoir fixer les investigations
nécessaires et la nature des essais. Très fréquemment, des essais avec pénétromètre
dynamique et des essais pressiométriques sont réalisés.
Son principe est à l’instar du clou qui est enfoncé dans une planche grâce à un
marteau, en effet il consiste à enfoncer une tige dans le sol et mesurer son
enfoncement.
Il est utile pour apprécier la résistance des terrains traversés et prévoir la réaction des
sols en continu à l’enfoncement de pieux, déterminer l’épaisseur et la profondeur des
différentes couches de sol et effectuer des contrôle de compactage.
Lors d’une mission G5 (après sinistre) les essais sont réalisés par paire l’un dans la
zone sinistrée et l’autre dans une zone saine qui sert de référence
Néanmoins, cet essai ne permet pas de caractériser véritablement le sol, si bien que
dans le cas d’un terrain de faible portance, des précautions inutiles peuvent être
préconisées. La tige est enfoncée en aveugle (pas de carottage possible au droit d
l’essai).
L’essai pressiométrique :
Le pressiomètre est un appareil avec une sonde qui nécessite de réaliser un forage, ce
qui permet de réaliser des carottes à l’aplomb du point sondé
Ces deux essais ont des avantages et des inconvénients. C’est pour cela que certains bureau
d’études sont dotés d’un large panel de matériel afin de retenir des essais in situ
Par la suite, cet exposé non exhaustif des essais in situ vont être présentés des essais in situ
qui cumulent les procédés énoncés ci-dessus et certains intègrent également des caméras ou
autres appareils pour visualiser les profondeurs …
Ci-dessus la photographie du Grizzly EV-DPSH en mode repli pour être déplacé vers un
autre point.
Les résultats obtenus par les pénétromètres dynamiques lourds ont été comparé à ceux
ancestraux et ils sont comparables. L’avantage de cette solution permet de sonder des sols
plus durs ou résistants.
L’essai de pénétration statique au cône (Cone Penetration Test – CPT) consiste à enfoncer
dans le sol un pénétromètre à cône à l’aide d’un train de tiges/tubes de fonçage à une vitesse
de pénétration constante (2 cm/s). Pendant le fonçage, des mesures de la résistance à la
pénétration du cône, de la résistance totale à la pénétration et/ou du frottement sur le manchon
peuvent être enregistrées soit mécaniquement (CPTM pour mécanique), soit électriquement
(CPT électrique et piézocône ou CPTU).
D’autres appareils ont ensuite été développés dans le monde, différents soit par les modalités
de mesure de la résistance de pointe, soit par l’aspect opérationnel, important dans ce type
d’appareil puisqu’il faut le foncer dans le terrain à partir d’une charge statique obtenue le plus
souvent par un lest mais aussi par ancrages.
Les premiers CPT permettaient une simple mesure mécanique de la résistance totale de
pénétration à l’aide d’un outil conique foncé dans le sol. Différentes méthodes ont été
employées pour séparer la résistance totale mesurée de celle générée par l'embout conique (le
terme de pointe) et par le frottement sur le train de tiges. Dans les années 1950, un manchon a
été ajouté afin de quantifier ce frottement. Les mesures électriques ont débuté en 1948 et se
sont améliorées au début des années 1970. La plupart des CPT modernes sont également
équipés d’un filtre permettant de mesurer la pression interstitielle lorsque les mesures sont
effectuées sous le niveau de la nappe.
Le principe de l’essai au
pénétromètre statique consiste à
foncer verticalement dans le
terrain, à vitesse lente et
constante de 2cm/s, un train de
tiges/tubes terminé à sa base par
une pointe conique généralement
de même diamètre que les tubes,
permettant de mesurer la
résistance des sols traversés. La
pointe est conçue de telle
manière qu’il soit possible de
dissocier la part de la résistance
que le sol oppose à la pointe du
train de tiges et celle qui se
traduit par un frottement sur la surface latérale du fût. Ce résultat peut être obtenu par
différents procédés :
effort reporté sur la pointe par l’intermédiaire d’un train de tiges intérieur (système
MEURISSE-GOUDA) présenté ci-dessus
Pour ces trois procédés, la mesure de la force Fp, force exercée uniquement sur la pointe (sans
prise en compte des frottements). Cependant, le premier procédé avec tube et tiges implique la
mesure mécanique par ce système qui est discontinue car l’avancement de la tige et du tube ne
doit pas être réalisé en même temps. Les avancements successifs de l’un et de l’autre se font
sur une vingtaine de centimètres.
La force de réaction totale peut être fournie par ancrage du bâti du pénétromètre ou par un
lest. Si Ft est la force totale nécessaire pour enfoncer l’appareillage, alors la force pour
vaincre les frottements latéraux Ff est de manière évidente : Ff=Ft-Fp.
La force de résistance de la pointe est ramenée généralement à la section de cette pointe elle
est appelée « résistance de pointe », et elle est notée Rp et s’exprime en bars ou en MPa. Le
frottement latéral est souvent donné en tonnes ou directement converti en kN (1 tonnes génère
un effort de 9.81 kN soit 10 kN).
Actuellement, le résultat de ces essais est utilisé comme données d'entrée des calculs dans les
programmes "Pieux CPT" et "Semelles CPT" ainsi que pour la modélisation stratigraphique
dans le programme "Stratigraphie".
Il est à noter que lorsque la apacité portante de pieux est calculée selon la théorie de
Schmertmann, la saisie du frottement latéral local fs est obligatoire.
Afin de pouvoir classifier les sols, les valeurs de pression interstitielle doivent être saisies. Si
la pression interstitielle n'a pas été mesurée (essai CPTu), elle peut être calculée à partir de la
saisie de l’altimétrie retenue de la nappe phréatique.
Voici ci-dessous un exemple de tracé obtenu suite à un essai au pénétromètre statique. Il est à
noter que certains enregistrements tracent également les efforts de frottement pour enfoncer
la tige et ceux pour la retirer :
Le CPT convient en général très bien pour les sols pulvérulents et les sols cohérents mous à
moyennement raides. De ce fait, il est important de connaître le contexte géologique du site
afin d’estimer les possibilités d’utilisation.
Pour les ouvrages courants, le CPT pourra être couplé à des reconnaissances usuelles (pelles,
tarières …). Pour des ouvrages plus complexes, on ajoutera d’autres essais (pressiomètre,
carottage, laboratoire, …).
Les principaux avantages du CPT sur les autres méthodes de reconnaissance in situ sont :
o La production d'un profil continu de paramètres de sols sur toute la hauteur
d'investigation,
o Pas d’incertitudes liées au remaniement du sol,
o L’élimination des incertitudes liées à l’opérateur (l'essai étant parfaitement
répétitif),
o La rapidité d'exécution (jusqu’à 80m/jour environ voire plus dans les sols peu
résistants),
o Le coût très compétitif par rapport aux sondages pressiométriques.
Les inconvénients :
o Le risque de refus sur les couches relativement dures même si elles sont
minces,
o Pas de prélèvement du sol,
o Les habitudes du géotechnicien en France,
o La difficulté d’accès pour les camions CPT pour certains types de sols, ou
sites,
o La difficulté d’ancrage pour les machines dites « légères ».
Ces inconvénients peuvent être gérés en préconisant le CPT dans les zones où il est bien
adapté. Globalement, le CPT peut être utilisé dans les zones telles que les Flandres, la
Champagne, les zones alluvionnaires, les zones compressibles ainsi que tous les deltas (Le
Havre, Saint-Nazaire, Marseille, Bordeaux…) et les bandes du littoral (Nice).
Depuis des années, il était communément admis que les essais de pénétration statique
n’étaient pas adaptés pour reconnaître ni les couches de graviers, ni les couches de marne, ni
la molasse.
Cette opinion provenait de ce que, avec la plupart des pénétromètres statiques, ces couches,
rencontrées même à faible profondeur, bloquaient l’appareil et provoquaient, par ailleurs, des
détériorations graves dans les cônes électriques, ce qui était très coûteux. De ce fait, certains
géotechniciens ont limité l’utilisation du pénétromètre statique aux couches molles, alors que
d’autres acceptaient son utilisation dans les sables (Begemann, 1965 ; Schmertmann, 1967),
mais, en général tous l’excluaient pour l’étude des graviers (Mitchell,1998). Cependant, cette
restriction n’a plus de raison d’être depuis 1992 (Sanglerat et al., 1995).
En statique :
Fonctionnement entièrement automatique. Enfoncement à une vitesse rigoureusement
constante de 2cm/seconde selon la norme NFP 94 - 113, avec enregistrement numérique en
continu des mesures sur carte mémoire et/ou clé USB, avec sortie simultanée des diagrammes
des efforts et/ou des contraintes tracées en temps réel permettant le contrôle instantané des
opérations (sur écran tactile ou imprimante embarquée dans le poste de commande).
Les données enregistrées sont transmises par GSM, ce qui permet de tracer très rapidement les
courbes représentatives des essais dans le bureau de l’ingénieur chargé du projet et d’extraire,
si besoin est, toutes les valeurs numériques nécessaires aux calculs de force portance ou de
tassements (Mitchell et al., 1998 ; Sanglerat et al, 1984 Lunne et al , 1998).
En dynamique :
Le battage par chute d’un mouton a été remplacé par un puissant marteau hydraulique à
frappes rapides et réglables, par série de coups rapprochés, permettant de traverser des
couches résistantes ou de pénétrer les les sols denses ou compacts de substratums.
Installation :
Les réglages de mise à niveau de l’appareil, pour enfoncer verticalement les tiges, s’effectuent
très rapidement, grâce à quatre vérins hydrauliques commandés par des électrodistributeurs
contrôlés avec une radio télécommande pour la mise en place initiale puis électriquement
depuis le poste de commande pour l’ajustage précis de la verticalité.
Ci-dessous un exemple de plan d’un camion sur lequel a été monté un pénétromètre stato-
dynamique :
Lorsque les cônes de 44 cm² ou 50 cm², avec manchon de frottement, sont arrêtés par une
couche dure, la pénétration statique est poursuivie avec une pointe plus petite, d’un diamètre
de 39 mm, dite de 12 cm² (sans manchon de frottement), qui permet d’obtenir des valeurs de
résistance de pointe très élevées pouvant atteindre jusqu’à 148 MPa (cette résistance de pointe
est souvent appelée qc12 pour la différencier de qc50 ou de qc44) ; au-delà, il faut passer en
mode dynamique.
Lors de la pénétration dynamique, tous les 25 cm, une mesure de contrôle en statique de
l’effort total (pointe et frottement latéral) est effectuée qui est limitée volontairement à 180
kN. Cela correspond, dans les milieux pulvérents, à une résistance statique de pointe qc12
généralement de l’ordre de 130 à 140 MPa (ce qui est considérable et n’est atteint par aucun
autre pénétromètre).
Un dispositif d’alerte sonore permet d’éviter de dépasser les charges maximales prévues pour
les différentes tiges assurant la transmission des efforts jusqu’aux capteurs de mesures.
Il est possible d’utiliser sur le même appareil d’autres cônes, en particulier le piézocône et
l’envirocône. Naturellement, dans ces deux cas, on utilise des enregistrements et des logiciels
spécifiques en restitution des diagrammes de mesures.
L’ensemble de ces possibilités notamment celle qui consiste dans les sols cohérents, prélever
des échantillons intacts sous gaine PVC de gros diamètre (Ø 70 mm) constitue une
amélioration considérable des moyens de reconnaissance et permet de traiter de nombreux
problèmes d’environnement ou de waste management grâce à la qualité et à la fiabilité des
renseignements recueillis.
Cependant, l’un des reproches qui est couramment fait à la pénétration, surtout à la
pénétration statique et quelquefois même à la pénétration dynamique, est que ces essais in situ
sont bloqués sur des couches très compactes et qu’il est difficile de savoir ce qui se passe au-
dessous de ces horizons résistants.
Cette nouvelle génération de pénétromètres stato-dynamique a déjà prouvé son efficacité dans
les milieux pulvérulents très denses.
Ainsi par exemple, pour réaliser, dans un tissu urbain fort dense, à Marseille, un parking de 48
m x 77 m, profond de 17 m environ, il a été prévu une paroi moulée de 60 cm d’épaisseur,
avec trois lits d’ancrage précontraints en partie courante et des bracons horizontaux à 45
degrés dans les angles. La coupe verticale schématique présente la solution retenue pour la
conception :
Initialement, les investigations passées et en phase de projet ont permis de retenir les couches
suivantes :
0 à 2 m : remblais divers ;
L’étude géotechnique initiale comportait très peu de sondages profonds mais il était spécifié
dans les pièces écrites du marché des entreprises, que le site était bien connu grâce à de
nombreuses reconnaissances dans le cadre du creusement de plusieurs tunnels à proximité.
Or, Lors des travaux de terrassements, la paroi moulée s’est déformée beaucoup plus que
prévu, elle s’est même fissurée à certains endroits, et des tassements importants, de 30 mm à
60 mm sont survenus à proximité de l’angle nord-est du parking, entraînant des désordres
Le sondage pressiomètrique n’a pas permis de déterminer avec précision ni le toit exact du
Stampien altéré, ni celui du Stampien Sain, et deux sondages au pénétromètre statique
« classique » ont été bloqués entre 8 m et 12 m de profondeur dans les premiers décimètres du
Stampien altéré.
Dans la zone des tassements les plus importants et des déformations anormales de la paroi, il
était donc nécessaire dans le cadre de l’expertise de réaliser un essai in-situ pour déterminer
avec précision les toits du Stampien altéré et sain et également les épaisseurs exactes des
couches de terrain qui exerçaient des poussées sur la paroi litigieuse.
Ainsi, quatre essais avec le pénétromètre stato-dynamique « Amap’sols » ont été réalisés. Ils
ont atteint sans difficulté les profondeurs de 15,75 m, 20,02 m, 20,18 m et 21,14 m, en
traversant sur plusieurs mètres non seulement le Stampien altéré, mais également le Stampien
sain.
le toit du stampien sain est environ 3.50 mètres plus bas que celui annoncé
des alluvions modernes de très médiocre qualité, très compressibles jusqu’à 10 m de
profondeur
Par ailleurs, les paramètres qc, FR et fs ont été enregistrés et tracés. Le paramètre FR exprimé
en pourcentage, représente le rapport de frottement normalisé.
Pour pouvoir atteindre de telle profondeur, un changement de pointe a été opéré qc50 dans les
sols mous et qc12 dans les sols durs et notamment ici le Stampien avec un changement de
mode, au début pénétromètre dynamique puis statique avec une force maximale d’application
sur la tête de la tige de 180 kN.
Le diagramme ci-dessous qui correspond à l’essai mené jusqu’à 20.18 m de profondeur est
représentatif de la synthèse des résultats des quatre essais précités :
d’enfoncement en cours d’essai permet de s’affranchir en très grande partie de l’effet néfaste
du frottement latéral cumulé et permet de poursuivre sur de plus grandes profondeurs, en
ayant réglé par ailleurs le problème du frottement du train de tiges.
Ci-dessus, avec le chapitre précédent, il a été exposé la justification et une parties des
application de la conception du pénétromètre stato-dynamique.
Lors de son exposé du 14 juin 2005 pour la journée Louis PAREZ CFMS, Alain PUECH
(société Fugro France, entreprise néerlandaise qui fournit des services d'expertise et
d'assistance géotechnique dans les domaines de l'exploration et de la production pétrolière et
minière, du positionnement, de la topographie) a présenté quelques innovations et applications
liées au développement du pénétromètre stato-dynamique.
Ce qui va suivre est une succession de quelques-uns de ses slides avec mes commentaires.
Voici la nomenclature des pointes dont dispose Fugro pour le pénétromètre stato-dynamique.
Quel que soit la tête utilisée, la vitesse d’avancement est toujours de 2cm/s.
Parmi cette liste certains ont déjà été cités précédemment tel que le CPTu (ci-dessous),
cependant la famille des envirocônes est riches et le pressiocône semble être très intéressant
….
Ces deux images montrent les domaines d’application terrestres et marins de ces appareils.
Les slides qui vont suivre sont une synthèse sur l’identification des sols via CPT :
Ainsi, la famille des essais in-situ peut mieux caractériser les paramètres physiques,
chimiques et mécaniques des sols et « concurrence » davantage la famille des essais en
laboratoire qui permet d’explorer les sols dans des comportements limites hors de leur
contexte naturel.
Effet, il a été constaté que les sols sous l’action des ondes d’un
séisme pouvaient se liquéfier. Et à cause de cette liquéfaction,
leurs propriétés mécaniques peuvent être fortement altérées
ainsi que leur comportement initialement plutôt solide peut se
transformer vers un comportement proche d’un liquide.
Par ailleurs, en fonction de leur fuseau granulaire, les sont plus ou moins « liquéfiables ». Une
forte proportion de particules fines y contribue.
Les résultats obtenus par des essais in-situ de sols potentiellement liquéfiable de manière
préoccupante doivent être complétés par des essais en laboratoire notamment des essais
triaxiaux cycliques. Il est à noter que la méthode de calcul à partir des résultats du CPT ne
nécessite pas d’avoir recours à des corrections comme pour ceux du SPT.
A gauche, la frontière Ic=2.6 a été tracée sur l’abaque pour la classification de Robertson
1990. Les sols sous cette frontière sont cohésifs donc plus sensibles.
Le cône sismique permet de déterminer la vitesse V s(Vp) in-situ des ondes sismiques et la
mesure de qc, fs, u, inclinaison et sismomètres X, Y et (Z).
Par conséquent, les asymptotes ne sont plus horizontales mais verticales et le calcul de la
pente des segments de droite sont égaux à 1/EM.
Bien que cet équipement soit complexe et onéreux, il permet d’obtenir à l’aplomb d’un point
des informations complémentaires sur les propriétés mécaniques des différentes couches sans
trop de risque de rester bloquer sur celles plus dures.
Cependant, cette sonde avec un module pressiométrique devra être utilisée en parallèle avec
des essais pressiométriques MENARD et les résultats corrélés avec des essais de laboratoires
clairement identifiés et documentés pour assurer sa robustesse. Ainsi, dans quelques années,
cet appareillage pourra être généralisé.
Ce cône permet de prendre des images à différents niveaux de résolution et peut permettre de
A partir du rendu de l’exposé de ces appareillages Alain PUECH (société Fugro France), il est
aisé de saisir les progrès technologiques dont ont pu bénéficier les essais in-situ et les
perspectives d’utilisation offertes aux géotechniciens. Actuellement, il est possible d’utiliser
un outil multifonction à l’aplomb d’un point et d’adapter l’outil en fonction des observations
en temps réels et d’exploiter les résultats numérisés pour obtenir notamment des rendus
visuels ou faire des simulations.
L'imagerie sismique est une méthode géophysique d'observation de la subsurface. Elle permet
de visualiser les structures géologiques en profondeur grâce à l'analyse des échos d'ondes
sismiques. Elle ne doit pas être confondue avec la sismologie, qui est l'étude des ondes
sismiques et des séismes pour eux-mêmes.
Les ondes sismiques peuvent être d'origines naturelles (séisme) ou artificielles. Le signal
initial est généralement issu d'une source prévue pour l'imagerie (camion vibreur, explosif,
canon à air, etc.) mais peut aussi être composé de bruits ambiants (activités industrielles,
passage de trains) on parle alors de sismique passive. Dans tous les cas, les ondes suivent les
mêmes lois de propagation que les ondes lumineuses.
La diagraphie acoustique utilise la transmission directe des ondes pour mesurer la vitesse du
son dans les roches traversées par un forage.
La diagraphie acoustique est une diagraphie visant à mesurer la vitesse de propagation du son
dans les formations géologiques, en utilisant un outil de puits composé d’un système émetteur
et d’un système récepteur.
La diagraphie acoustique repose sur l’analyse et le traitement des différents trains d’onde
(ondes réfractées, ondes guidées, ondes réfléchies) enregistrés par l’outil acoustique.
Le puits peut être un trou ouvert, un trou tubé (acier et/ou PVC), un trou tubé cimenté. Dans
ce dernier cas, la diagraphie acoustique est utilisée pour faire un contrôle de cimentation et
pour déterminer les paramètres caractéristiques des formations (vitesses, …).
En puits vertical, il est supposé que les formations géologiques sont symétriques par rapport à
l'axe du puits. Pour cette mesure, le trou doit être en eau (boue de forage). La sonde
acoustique est descendue centrée, par des centreurs. Il est recommandé de faire au préalable
une mesure des diamètres du forage (diamètreur).
Après avoir effectué le calage du zéro (référence sonde) à un plan de référence (radier, table
de rotation, etc.) ou au sol, la sonde est descendue à une profondeur donnée choisie par
l'opérateur pour faire des mesures en stationnaire. Ces mesures permettent de vérifier la
qualité des enregistrements acoustiques, le bon fonctionnement de l'outil, la répétitivité des
mesures, d'évaluer le rapport signal sur bruit et de régler certains paramètres d'acquisition
(gains, etc.). L'outil est ensuite descendu en fond de puits. Une acquisition de contrôle peut
être faite à la descente, pour s'assurer qu'il n'y aura pas de saturation à l'acquisition.
L'opération de mesure est ensuite faite à la remontée à vitesse constante en fonction du pas
d'échantillonnage en profondeur. Une vitesse de remontée de 4 à 6 m/mn est classique.
Les outils utilisés sont des outils de type monopôle ou dipôle. Les outils monopôles sont les
plus utilisés. Les émetteurs et récepteurs sont multidirectionnels. Les émetteurs génèrent dans
le fluide une onde de compression qui donne naissance dans la formation à une onde de
compression (onde P) et une onde de cisaillement (onde S) aux angles limites de la réfraction.
Les outils acoustiques de type dipôle sont utilisés pour accéder aux paramètres S des
formations lentes et sont équipés d'émetteurs et de récepteurs polarisés. De tels outils génèrent
des ondes de compression polarisées perpendiculairement à l'axe du puits. Ces ondes de
compression créent à la paroi du puits des modes de flexure qui donnent naissance dans la
formation à des pseudo-ondes de cisaillement se propageant parallèlement à l'axe du puits.
• le type de fonctionnement :
- monopôle : fréquence d'émission 10-40 kHz
- dipôle : fréquence d'émission 1-3 kHz
• le type d'émetteur et de récepteur :
- magnétostrictif
- piézo-électrique
• le nombre d'émetteurs et de récepteurs :
- classique avec un ou deux émetteurs et deux récepteurs
- 1 à 4 émetteurs et une antenne réceptrice avec de quatre à huit récepteurs
• l'écartement entre récepteurs : de dix à cinquante centimètres
• le déport de la source par rapport au premier récepteur : de un à cinq mètres
• les caractéristiques mécaniques :
- ossature rigide ouvragée
- ossature souple.
• le pas d'échantillonnage en temps :
- 5 ou 10 µs pour un outil monopôle
- 20 µs pour un outil dipôle
• la durée d'écoute :
- 2 ou 5 ms pour l'analyse des ondes réfractées
- 10 ms ou plus pour l'analyse des ondes réfléchies
R1 R2
L'enregistrement acoustique peut être visualisé sous forme de sections acoustiques à déport
constant (iso-déport), le déport étant la distance séparant l'émetteur d'un récepteur. Chaque
section iso-déport est un enregistrement à deux dimensions (temps : axe vertical - profondeur
ou longueur filée : axe horizontal, ou inversement). Le pas d'échantillonnage en profondeur
doit être choisi pour éviter le phénomène d'aliasing spatial sur les sections iso-déport en vue
d'un traitement ultérieur des données acoustiques. En pratique, le pas d'échantillonnage en
profondeur est choisi égal à une fraction de la distance séparant 2 récepteurs de l'outil soit
entre 5 et 15 cm en géotechnique.
Les gains d'acquisition doivent être choisis pour éviter toute saturation, notamment pour les
modes guidés. Cependant, si l'acquisition est faite pour obtenir un log de vitesse en onde P,
des gains peuvent être utilisés pour amplifier les ondes de compression de façon à faciliter le
pointé de temps de première arrivée (pointé par seuil), quitte à saturer les modes guidés et
faire un second run pour acquérir les modes guidés en amplitude préservée.
Sécurité :
La sécurité du chantier doit être assurée par le Chef de Mission, en accord avec le Système
Qualité du prestataire. Les accès à la zone de mesures sont sécurisés.
Contrôle Qualité :
Lors de la remontée de la sonde acoustique, l'opérateur contrôle la qualité des enregistrements
sur les différents récepteurs de la sonde acoustique, notamment le niveau de bruit. En zone
bruitée, il peut être utile de réduire la vitesse de remontée, le pas d'échantillonnage en
profondeur devant resté constant.
Production :
En moyenne, pour une diagraphie acoustique, la vitesse de logging est de 4 à 6 m/mn. Cette
diagraphie est rarement effectuée seule. Elle s'inscrit dans un ensemble de mesures obtenues
dans plusieurs runs.
- les ondes de Stoneley sont des ondes dispersives d'interface qui, en formation rapide, ont des
vitesses de phase et de groupe qui approchent asymptotiquement et par valeur inférieure aux
hautes fréquences la vitesse du fluide et qui, en formation lente, sont plus dispersives et plus
sensibles aux paramètres des ondes S de la formation. Aux basses fréquences, les ondes de
Stoneley sont analogues aux ondes de tube observées en PSV.
Séquence de traitement :
Le traitement classique d'une diagraphie acoustique permet d'obtenir la relation temps-
profondeur et les logs de vitesse au puits et certains paramètres mécaniques tels que le
coefficient de Poisson.
Production
Cet essai dure d’un à plusieurs jours (voire semaines : un traitement de micro-sismique est
équivalent à un traitement de sismique réflexion) de traitement en fonction des options
demandées. Si le traitement demandé est uniquement le log de vitesse P, pointé par seuil, il
peut être obtenu en temps réel sur le terrain. L'écriture du rapport peut prendre quelques jours.
Résultats et livrables
Limitations / Contraintes
La mesure acoustique doit être faite dans un puits rempli d'eau (boue). Il est préférable
de travailler en trou ouvert (voire tubé PVC). Il est souhaitable de faire une mesure
continue des diamètres du forage (diagraphie : diamétreur) pour détecter les zones
cavées. L'outil doit être centré par des centreurs lors des mesures acoustiques.
La vitesse de logging doit être faible (4 à 6 m /mn) pour respecter les conditions
d'échantillonnage en distance et pour éviter les bruits de raclement créés par les
centreurs. En général, un filtre en fréquence (coupe bas : 1 kHz) est utilisé à
l'acquisition pour filtrer ces bruits.
La mesure acoustique peut être réalisée en trou tubé acier, lorsque les tubages sont
parfaitement cimentés. La présence de phénomènes de résonnance dus à la mauvaise
cimentation est utilisée pour évaluer la cimentation (log de cimentation).
Les conditions de puits, en cas de puits tubé mal cimenté, peuvent rendre les mesures
difficiles. Les ondes associées aux vibrations du casing doivent être filtrées. Ce
traitement ne permet pas toujours d'extraire les ondes de volume caractéristiques de la
formation et de mesurer les paramètres de formation.
La mesure acoustique est favorisée par l'utilisation d'outils longs (3 à 4 m entre
l'émetteur et les récepteurs). La mise en œuvre peut receler quelques difficultés
lorsque le mât du système de levage n'est pas suffisamment haut. Dans ce cas, l'outil,
s'il est souple, peut être introduit dans le puits en le courbant. L'outil peut aussi être
introduit par éléments constitutifs connectables entre eux.
Applications
Par rapport aux autres diagraphies, la diagraphie acoustique a une résolution verticale
équivalente mais un rapport investigation latérale sur résolution verticale très nettement
supérieur. La diagraphie acoustique a une investigation latérale de quelques centimètres pour
les modes d'interface, décimétrique à métrique pour les modes rétractés, et de quelques mètres
à la dizaine de mètres pour les modes réfléchis.
• mesurer les vitesses des formations (en compression et cisaillement) et calculer les
modules d'élasticité (mesure dynamique 2-40 kHz) ;
• établir la relation temps-profondeur très haute résolution par intégration de la courbe
des lenteurs (inverse de la vitesse) ;
• réaliser des films synthétiques pour caler la sismique réflexion de surface ;
• mesurer l'atténuation et l'anisotropie (mode dipôle) d'une formation ;
• identifier la lithologie en combinaison avec d'autres diagraphies ;
• étudier la fracturation et détecter des hétérogénéités ;
• évaluer la cimentation d'un tubage ;
• évaluer la porosité et appréhender la perméabilité ;
• mesurer les pendages ;
• fournir une micro-sismique de détail (ondes réfléchies) au voisinage du puits ;
opérations à privilégier dans les puits fortement déviés ou horizontaux.
La sismique par réflexion étudie la réflexion d'ondes sismiques aux interfaces entre plusieurs
couches géologiques. Elle permet d'avoir une image 2D ou 3D de surfaces typiquement de
l'ordre de 1 000 km2 pour des profondeurs inférieures à 10 km qui permet ensuite aux
géologues des compagnies pétrolières d'estimer les probabilités de trouver du pétrole. Une
étude sismique se décompose en 3 grandes étapes :
1. Acquisition des données sismiques ;
Des moyens assez importants sont utiliser pour créer une onde qui va se propager sous terre.
L'onde créée est : soit une impulsion (dynamite, airgun), soit une sinusoïde dont la fréquence
varie sur un spectre défini pendant un temps t (camion vibreur utilisé partout où le terrain le
permet). Dans ce dernier cas, la corrélation du signal enregistré en sortie de vibreur avec le
signal pilote envoyé en entrée du vibreur donne une "wavelet" proche de l'impulsion désirée.
Une étape supplémentaire de traitement permet donc d'obtenir une image aussi nette qu'en
utilisant des airguns ou de la dynamite. Les ondes émises se propagent suivant les lois de
réflexion et réfraction de Snell-Descartes et sont en partie réfléchies à chaque changement de
vitesse de propagation (couche géologique). Elles sont reçues par des géophones sur terre.
L'étude sismique peut être monotrace ou multitraces. Dans ce dernier cas, en plus d'augmenter
le rapport signal sur bruit, il est possible de calculer les vitesses des milieux traversés. Cette
information permet ensuite de convertir les données en profondeur.
Principe de la méthode
Le principe des méthodes sismiques consiste à générer un ébranlement à la surface du
sol et à analyser la propagation des différents types d’ondes émises, ainsi que la
mesure de leur vitesse. Chaque type d’onde est le support d’une méthode particulière.
sismique :
Applications
Bien que la méthode soit plus particulièrement adaptée aux milieux sédimentaires, les
domaines d’application sont nombreux :
Domaines d’emploi usuels :
o Exploration pétrolière onshore et offshore, exploration minière.
Cette illustration
montre le
principe de cet
essai pour faire
la prospection
de couche molle
tel que des
nappes ou des
gisements de
pétrole.
Personnel et compétences :
Pour l'équipe d'acquisition : 1 Chef de mission, 1 chef d'équipe topographie
(implantation et levé), 1 chef d'équipe forage ou 1 chef terrain (vibrateur), 1 chef
d'équipe " labo ". L'équipe sera complétée par des aides non qualifiés selon
l'importance et la difficulté du terrain, de 30 à 2500. En France, selon l'importance du
dispositif, l'effectif peut varier de 5 à 50 personnes.
Travaux préparatoires :
Déclarations administratives et autorisations de travaux dans les propriétés.
Installation : Les capteurs sont fermement plantés dans le sol, le long d'un profil
rectiligne. Ils sont connectés sur la flûte et la flûte à l'enregistreur.
Contrôle Qualité : Après chaque tir, l'opérateur contrôle la qualité des enregistrements,
le niveau de bruit, le bon état fonctionnel des traces (capteurs + connections).
L'enregistrement doit autoriser un dépouillement sans ambiguïtés des mesures. Le
dispositif ne doit pas être démobilisé avant validation du tir.
Production : Dépend de la difficulté de déplacement sur le terrain et de l'importance de
l'équipe. De quelques dizaines à plusieurs centaines de Points de Tir / Points de
Vibration par jour.
Il s’agit d’un métier à part entière. Le traitement consiste à récupérer l’ensemble des données
brutes du terrain et à restituer au client une ou plusieurs images « compréhensibles » et
utilisables en vue d’interprétation. Une succession de procédés élémentaires sont appliqués
aux data. Ci-dessous un exemple de logigramme (flow chart) de traitement sismique en 3D
terrestre :
1. Transcription du format terrain en format lisible par le logiciel de traitement).
2. Edition éventuelle de traces erratiques
3. Conversion en phase minimum dans le cas d’une acquisition vibrateur
4. Récupération de l’amplitude
5. Compensation de la divergence sphérique
6. Compensation de l’amplitude (sources et récepteurs) en surface consistante
7. Application éventuelle de filtre de réjection (notch) et d’atténuation de bruits
8. Application de corrections statiques pour ramener l’origine de la section au plan de
référence (Datum Plane)
9. Déconvolution surface consistante. (Ne dépend que du lieu considéré et non du
récepteur ni de la source, est plus robuste et fait usage statistique d'un plus grand
nombre de traces, et enfin permet de tenir ainsi un meilleur compte des fonctions de
transfert associées aux géophones par exemple)
10. 1e analyse de vitesses
11. Applications de corrections statiques résiduelles surface consistante
12. 2e analyse de vitesses
13. Compensation de l’amplitude (sources, récepteurs, offset) en surface consistante
14. Elimination de bruit en plan offset
15. Interpolation et régularisation en plan offset
16. Atténuation de bruit en plan offset
17. 3e analyse de vitesses
18. Migration en temps avant sommation (PSTM)
19. Application d’un mute (élimination d’une partie des données mesurées inutiles,
voire nuisibles)
20. Sommation (Stack)
21. Application des statiques au Datum Plane final
22. Compensation d’atténuation
23. Phase conversion en zéro phase
24. Atténuation de l’empreinte d’acquisition
25. Filtrage bande passante
Ci-dessous un exemple de traitement de données. Les données brutes ont fait l’objet d’un
traitement numérique afin d’éliminer les différents parasites.
Résultats et livrables
Inversion élastique par migration avant sommation permet de retrouver les propriétés
pétrophysiques grâce à des calages aux forages
Rapport d'étude
Section interprétation : Suivant les objectifs de l'étude, des attentes du client et des
termes du contrat, une interprétation avancée (incluant une intégration des résultats
avec d'autres méthodes géophysiques et/ou des données géotechniques) pourra être
menée. Des conclusions (sur la corrélation entre VP et lithologie), et des
recommandations (sur des études complémentaires éventuellement) sont nécessaires.
Le rapport comporte un volume texte et un volume cartographique, sur papier et/ou en
format électronique. Le rendu cartographique est proposé au format CAD et/ou SIG.
Les données de terrain sont fournies au format standard SEG2 et les relevés
topographiques au format ASCII.
Ce type d’essai est approprié pour les projets de grande ampleur. Cependant, il faut espérer
qu’avec les progrès techniques et l’enrichissement par l’expérience ce type d’essai puisse
devenir plus simple à mettre en œuvre.
La sismique par réfraction utilise la propagation des ondes le long des interfaces entre les
niveaux géologiques. Cette méthode convient en particulier à certaines applications de génie
civil et d'hydrologie. Elle permet d'estimer le modèle de vitesse et le pendage des couches.
Elle est actuellement limitée dans le domaine pratique à des objectifs dont la profondeur est
inférieure à 300 m, mais elle est à l'origine de la découverte en 1956 du gisement de pétrole
d'Hassi-Messaoud, le plus important d'Afrique, à une profondeur moyenne de 3 300 mètres.
Principe de la méthode :
Applications :
Bien que la méthode soit plus particulièrement adaptée aux milieux tabulaires, les domaines
d'application sont nombreux :
La source sismique doit être dimensionnée pour un rapport Signal/Bruit optimal sur
l’ensemble du dispositif et pour un contenu fréquentiel adapté. L’explosif (forte
énergie mais nuisances et autorisations contraignantes), la masse et le fusil sismique
(pratiques mais de faible énergie), et la chute de poids accélérée ou non (bon
compromis énergie/encombrement) sont les plus utilisées. Masse, fusil sismique et
chute de poids sont réservées aux dispositifs courts.
Travaux préparatoires :
Installation : Les capteurs sont fermement plantés dans le sol, le long d’un profil
rectiligne. Ils sont connectés sur la flûte et la flûte à l’enregistreur.
Résultats et livrables :
La tomographie sismique produit une zonation des vitesses, avec un code couleur, au
droit du profil.
Rapport d’étude :
terrain et de la qualité des mesures, ainsi que des résultats spécifiques au site
(vitesses et épaisseurs, particularités et anomalies géologiques, etc.).
o Section Synthèse : Suivant les objectifs de l'étude, des attentes du client et des
termes du contrat, une interprétation avancée (incluant une intégration des
résultats avec d'autres méthodes géophysiques et/ou des données
géotechniques) pourra être menée. Des conclusions (sur la corrélation entre VP
et lithologie), et des recommandations (sur des études complémentaires
éventuellement) sont nécessaires.
Enfin, suivant leurs conditions de formation et de dépôt, les sols peuvent contenir des
matières organiques en proportion plus ou moins élevée.
Il est à noter que les processus mécaniques ou physiques d'évolution des roches ne permettent
pas de réduire la dimension des grains en dessous de 10 à 20 μm, car les effets mécaniques,
dus aux chocs ou aux frottements liés à la masse des grains diminuent rapidement avec leur
volume. Au-dessous de cette dimension, la fragmentation des grains se poursuit
principalement par altération chimique qui entraîne la destruction de certaines des liaisons
chimiques des minéraux. Elle s'accompagne d'une augmentation rapide de la surface des
grains offerte à l'attaque chimique.
la répartition des grains obtenue par voie sèche ou humide avec des moyens plus ou
moins complexe
la sensibilité à l’eau
la dureté et la résistance à l’usure de certains grains
les classifications des sols
les 3 phases d’un sol et leurs relations
d’autres ingrédients ou propriété physico-chimiques
…/…
5.2.2 répartition des grains obtenue par voies sèche ou humide avec des moyens
plus ou moins complexe
5.2.2.1 Granulométrie :
Le terme granulométrie est également utilisé pour décrire qualitativement la taille moyenne
des grains (granulométrie fine, ou grossière). Le mot granulométrie ou l'expression
granulométrie moyenne est aussi utilisé comme synonyme de « taille moyenne des grains » (il
est possible de dire par exemple que la granulométrie (moyenne) d'une strate augmente ou
diminue avec la profondeur).
Diamètre de Féret noté(Df) est la distance comprise entre une droite donnée D et la
parallèle à cette direction de telle sorte que l’ensemble de la projection du grain soit
comprise entre ces deux parallèles. En faisant tourner la droite D autour du grain, il
est possible de déterminer une position de D pour laquelle D f est maximal, c’est
l’exo-diamètre, et minimale, c’est le méso-diamètre. Le rapport de la surface de
l’aire projetée par la particule à la surface du cercle ayant un diamètre égal à l’exo-
diamètre définit l’indice de forme du grain.
Diamètre équivalent ; sans autre précision, la « taille » d'un grain est son diamètre
équivalent (De), défini comme le diamètre de la sphère qui se comporterait de
manière identique lors de l’opération d’analyse granulométrique choisie. À titre
d’exemple, une particule lamellaire (argile, kaolin, talc, etc.) ne présente pas la
même taille selon que celle-ci est mesurée avec un granulomètre à sédimentation ou
un granulomètre laser. Il est donc toujours capital d’indiquer avec la distribution des
tailles d’une population de grains, la méthode de mesure employée.
Le millimètre (mm) ou le micromètre (µm) sont les deux unités les plus utilisées.
Pour les mesures anglo-saxones, le mesh (un mot anglais signifiant « tamis,
réseau ») est utilisé. Originellement, il est défini comme le nombre de trous par
pouce, qui varie en sens inverse de la taille des orifices. Il en existe plusieurs
définitions légèrement différentes, le plus utilisé étant le mesh américain (mesh
US) : 10 mesh US correspondent à 2 mm, 35 mesh US à 0,5 mm, etc.
5.2.2.2 Tamisage :
Le tamisage est la méthode la plus ancienne et encore très largement utilisée car la plus
économique. Elle consiste à mesurer le poids de matière sèche dont le diamètre est supérieur à
100 µm. Si nécessaire l’échantillon de sol peut être « travaillé » pour séparer les grains. Le
tamisage permet de déterminer la masse des particules fines qui passe au travers des mailles
calibrées d’une toile de tamis. Les tamis sont superposés par maille décroissante et le poids de
matière retenue est mesuré sur chaque tamis. Cette opération peut se réaliser à sec, et en
faisant vibrer l’ensemble de la colonne de tamis, pour des grains de taille relativement
importante. Lorsque la population des grains comporte quelques éléments très fins, on associe
une dépression d’air. Lorsque la taille des grains est inférieure à 300 μm, il est nécessaire
d’opérer sous un flux d’eau (ou d’alcool pour des produits solubles dans l’eau). Chaque refus
est alors séché puis pesé.
12.00, 16.00, 20.00, 25.00, 31.50, 40.00, 50.00, 63.00, 80,00, 100.00 et 125,00 mm. Et pour
les grains inférieurs à 1.00 mm, la série normalisée est 20, 25, 32, 40, 50, 63, 80, 100, 125,
160, 200, 250, 315, 400, 500, 630 et 800 µm. Une colonne de tamis n’est pas obligatoirement
composée de l’intégralité de ces mailles. Par exemple, il est possible d’utiliser les tamis
suivants du bas vers le haut : 1 fond, 63, 125, 250 et 500 µm et 1.00, 2.00, 4.00, 8.00, 16.00,
31.50, 63.00 et 125.00 mm suivant les préconisations du CEN (NF EN 933-2). Ainsi, les
mailles suivent une suite géométrique de raison 2.
La teneur en particules fines est définie par le passant à 0.080 mm (80µm) ou 0.063 (63µm).
D10, Taille à 10 % (appelée aussi taille effective: TE). La taille effective ou le
diamètre à 10% de passant ou 90% de refus, exprimée en mm, correspond à
l'ouverture de maille laissant passer 10 % en poids de l'échantillon soumis à
l'analyse. Elle donne une indication sur la taille des particules les plus fines, mais
elle dit aussi que 90 % des grains de l'échantillon ont un diamètre supérieur à TE.
D60, Taille à 60 %. Le diamètre à 60% de passant ou 40% de refus, exprimée en mm,
correspond à l'ouverture de maille laissant passer 60 % en poids de l'échantillon
soumis à l'analyse.
D30, Taille à 30 %. Le diamètre à 30% de passant ou 70% de refus, exprimée en mm,
correspond à l'ouverture de maille laissant passer 30 % en poids de l'échantillon
soumis à l'analyse.
Coefficient d'uniformité (CU) est égal au rapport de la taille à 60 % par la taille effective ou
à 10% d’après la norme NFP 18-540 :
[5_1]
[5_2]
A
R CAILL
G LIMON SABLE GRAVE
IL OUX 100.00%
E
90.00%
80.00%
70.00%
60.00%
50.00%
40.00%
30.00%
20.00%
10.00%
0.00%
0.00025 0.0025 0.025 0.25 2.5 25 250
D10 : 0.003 mm
D30 : 0.013 mm
D60 : 0.219 mm
CU = 73.00
CC = 0.26
A
R CAILL
G LIMON SABLE GRAVE
IL OUX 100.00%
E
90.00%
80.00%
70.00%
60.00%
50.00%
40.00%
30.00%
20.00%
10.00%
0.00%
0.00025 0.0025 0.025 0.25 2.5 25 250
D10 : 0.096 mm
D30 : 1.072 mm
D60 : 3.957 mm
CU = 41.22
CC = 3.03
A
R CAILL
G LIMON SABLE GRAVE
IL OUX 100.00%
E
90.00%
80.00%
70.00%
60.00%
50.00%
40.00%
30.00%
20.00%
10.00%
0.00%
0.00025 0.0025 0.025 0.25 2.5 25 250
D10 : 11.727 mm
D30 : 32.003 mm
D60 : 65.042 mm
CU = 5.55
CC = 1.34
A
R CAILL
G LIMON SABLE GRAVE
IL OUX 100.00%
E
90.00%
80.00%
70.00%
60.00%
50.00%
40.00%
30.00%
20.00%
10.00%
0.00%
0.00025 0.0025 0.025 0.25 2.5 25 250
D10 : 0.004 mm
D30 : 0.695 mm
D60 : 3.743 mm
CU = 935.75
CC = 32.26
Remarque: la définition précise des paramètres peut varier légèrement suivant les
applications, notamment entre les applications géologiques et travaux publics et les
applications chimiques.
Les particules fines dons les grains sont inférieurs à 100 µm, ne peuvent pas être tamisée. Par
conséquent, les valeurs reportées pour tracer les courbes ci-dessus ont été obtenues au moyen
de la méthode par sédimentation.
5.2.2.4 Equivalent
de sable (ES
ou SE)
La propreté des sables est évaluée par deux essais complémentaires : l’équivalent de sable
(codé SE sur le plan européen) et l’essai dit « au bleu » (dévelopé plus loin). Tant que l’essai
d’équivalent de sable donne de bons résultats (SE > 60) le sable est propre. Si SE≤ 60 qui
peut résulter au piégeage accidentel de fines inertes (calcite, quartz) dans le floculant ou à la
présence d’un excès d’argile, il est nécessaire d’effectuer un essai dit au bleu basé sur
l’adsorption du bleu de méthylène qui ne se fixe que sur les argiles.
[5_3]
Il est également nécessaire de préparer une solution lavante à partir d’une solution floculante
(à préparer également) à diluer.
L’opérateur dissout le chlorure de calcium cristallin dans les 350 ml d'eau distillée ou
déminéralisée. Il laisse refroidir à température ambiante et, si nécessaire, il filtre à l'aide d'un
papier à filtrer à grosses ou moyennes mailles. Il ajoute la glycérine et le formaldéhyde en
solution et dilue à 1 l de solution avec de l'eau distillée ou déminéralisée, puis il mélange
vigoureusement3.
Le principe de l’essai
d’équivalent de sable a consisté
d’abord à préparer un
échantillon de sol. Ce dernier
doit être humide pour ne pas
risquer de perdre les particules
fines. Ensuite, il faut verser
dans une éprouvette spécifique
(6) à cet essai un volume de
solution lavante jusqu’au
premier repère et verser, à
l’aide de l’entonnoir (7) la
fraction d’échantillon humide.
Il faut agiter l’éprouvette de
façon à détacher les
revêtements argileux des
particules de sable de
l’échantillon en frappant
fortement à plusieurs reprises
avec la paume de la main la
base de l’éprouvette. Il faut
remplir l’éprouvette de solution
lavante jusqu’au deuxième repère. Puis il faut attendre 10 minutes avant de boucher
l’éprouvette avec un bouchon en caoutchouc (6) et de la placer horizontalement dans la
machine à vibrer 90 fois pour une durée de 30 s. Après avoir retiré l’éprouvette, il faut la
placer verticalement sur la table d’essais. Avec, le tube laveur (4), tige creuse avec à l’une de
ces extrémités un robinet (3) et le tube souple (2) raccordé à la réserve (1) de solution lavante
placée en hauteur et de l’autre des buses, il faut laver le bouchon au-dessus de l’éprouvette
après avoir ôté ce dernier.
Le tube laveur doit être descendu dans l’éprouvette pour nettoyer délicatement les parois puis
il doit être enfoncé jusqu’au fond. Ensuite, il faut le remonter afin de pouvoir faire remonter
les particules fines de la fraction d’échantillon immergée. Cette opération doit être réalisée
avec l’éprouvette verticale en lui soumettant un lent mouvement de rotation. Relever le tube
laveur juste après avoir arrêté l’écoulement de solution lavante et atteint le troisième repère de
l’éprouvette. Il faut laisser reposer l’éprouvette sans perturbation pendant 20 minutes à ± 10s.
Une fois ce temps de mise en repos respecté, il faut mesurer par rapport au fond de
l’éprouvette la hauteur h1 du niveau supérieur du floculât et la hauteur h’2 du niveau
supérieur du sable. Cette deuxième mesure est une « mesure à vue ». Afin de pouvoir prendre
les mesures au piston (5), il faut le descendre doucement dans l’éprouvette jusqu’à ce qu’il
repose sur les sédiments et pendant cette opération le manchon coulissant prend appui sur
l’éprouvette puis le bloquer à la fin de cette opération. Après avoir introduit le réglet (8) dans
l’encoche du manchon et amené le zéro du réglet contre la face intérieure de la tête du piston,
il est possible de lire la hauteur h2 du sédiment au niveau de la face supérieure du manchon.
Ce calcul est fait pour chacune des éprouvettes. Si deux valeurs obtenues diffèrent de plus de
4, le mode opératoire d'essai doit être répété.
L'équivalent de sable (ES ou SE) de l’échantillon testé est la moyenne des valeurs obtenues
pour chaque éprouvette, arrondie au nombre entier le plus proche.
5.2.2.5 La sédimentométrie
[5_5]
Soient γs le poids spécifique du grain assimilé à une sphère et γw le poids spécifique du liquide
à la température d’étalonnage T0, alors le poids de la sphère immergée est :
[5_6]
Dès que la sphère atteint dans le milieu liquide sa vitesse finale constante, la résistance
opposée par le liquide peut s’écrire :
[5_7]
En écrivant que [5_5]=[5_7], il est possible d’obtenir la loi de Stockes sous sa forme la plus
connue :
[5_8]
avec
v vitesse de chute de la particule en m/s
D diamètre de la particule en m
γs masse spécifique de la particule en KN/m3
γw masse spécifique de la particule en KN/m3
η viscosité dynamique du liquide en poises (1Po=0.1Pa.s)
si la suspension est suffisamment diluée afin que les particules solides ne subissent pas trop
d’interactions réciproques
En sachant que :
[5_9]
[5_10]
avec
g = 9.81 m/s²
γs = 26.4 KN/m3
γw = 10 KN/m3
η = 10-6 KN/m²s ou 0.01 Po
Ainsi
Par conséquent, la sédimentométrie est adaptée pour des particules de dimensions inférieures
ou égales à 63µm.
Principe de la manipulation :
Le principe de fonctionnement du densimètre est basé sur une loi de la physique: la poussée
d’Archimède. Selon cette dernière, tout corps plongé dans un liquide reçoit une poussée vers
le haut dont la force est égale au poids du volume du liquide déplacé.
Le densimètre est une fiole en verre qui possède un renflement ou une bulle dans sa partie
inférieure qui contient des grenailles de plomb. La partie supérieure est étroite et contient
l’échelle de graduation qui a été réalisée et étalonnée pour une température précise.
Pour une même concentration d’une solution, si la température est plus élevée, le densimètre
s'enfoncera davantage et si elle est moins élevée, il va moins s’enfoncer, car le liquide devient
plus visqueux et la densité mesurée paraîtra ainsi plus haute que la réalité. Le densimètre a été
étalonné pour une température précise (généralement 20°C).
Et pour prendre en compte les variations dues à des températures différentes de celles qui a
été retenue pour son étalonnage, des corrections sont nécessaires.
Matériels nécessaires
o désagréger le tamisât à 80µm obtenu par tamisage par voie humide ou sèche et prendre
la température ;
o prélever 80 g de matériau sec homogénéisé ;
o préparer une solution constituée par 500 cm 3 d’eau distillée et 60 cm 3 d’une solution à
5% de défloculant, l’hexametaphosphate de sodium ;
o imbiber l’échantillon prélevé dans la solution ainsi préparée pendant 12 heures ;
o procéder à l’agitation mécanique pendant 3 minutes afin de séparer les grains ;
o compléter l’éprouvette avec l’eau distillée jusqu’à 2 000 cm3 et remuer la solution
avec un agitateur manuel afin de répartir uniformément les grains ;
Quelques précautions :
La tige du densimètre doit être parfaitement propre.
Ne saisir le densimètre que par son extrémité supérieure.
Le nombre n de divisions est affecté par le signe (-) pour les lectures supérieures à
100.
principales caractéristiques :
H0 distance entre la plus haute graduation (1000) et le centre de poussée (ou de gravité) en cm
h1 la hauteur du bulbe en cm
Sédimentométrie
P% 8.00% Pourcentage d'éléments inférieurs à 80 µm
Temps en N lecture n
T° F Ct R1 p%<D P.p%<D Hr D (µm)
minutes graduations
0.5 2.5 19 0.0138 -0.2 14.8 59.20% 4.7% 15.2 76
1440
La relation [5_8] établie ci-dessus fait référence à un diamètre équivalent noté D. Cependant,
les grains des particules fines ne sont pas sphériques mais plutôt lamellaires. Et cette relation
ne s’applique qu’à une suspension de grains dans l’eau de faible concentration. Dans notre
cas, elle est de 40g/litre ou environ 4% du poids total de la solution.
densité au niveau de ce centre de poussée. Celui-ci est à une hauteur H r sous le niveau de
liquide. Et cette hauteur ou profondeur H r augmente au fur et à mesure que le matériau en
suspension sédimente au cours du temps (de 0.5 à 24 heures).
[5_11]
avec
Hr en cm
t en minutes
Il en résulte :
[5_12]
avec
γs = 2.64 g/cm3,
γw = 1g/cm3,
η=0.01 poise ;
et D est en mm.
≃
; pour T°=20° F 0.0137 [5_13]
Et également D en µm :
[5_14]
Ct :
Le coefficient correcteur Ct permet une correction pour tenir compte de la densité de l’eau à la
température d’essai.
Ct
Cm :
Le coefficient correcteur Cm est obtenu en plaçant le densimètre, dont la tige aura été
préalablement parfaitement nettoyée pour permettre le développement correct du ménisque,
dans l’eau déminéralisé ou distillée.
Cd :
Pour déterminer la correction Cd, remplir une éprouvette de 2 litres de l’eau déminéralisée et
faire la lecture au sommet du ménisque. Enlever 100cm3 d’eau distillée puis ajouter la
quantité du défloculant prévue au mode opératoire puis compléter jusqu’à 2000 cm 3 afin de
préparer une solution constituée par 1940 cm 3 d’eau distillée et 60 cm3 d’une solution à 5% de
défloculant. Ensuite, il faut bien brasser le liquide pour repartir le défloculant, puis refaire la
lecture du densimètre au sommet du ménisque. La différence de ces deux lectures représente
la correction Cd à apporter à la lecture. Ici Cd = -2.5.
Calcul de R1 et p% :
[5_15]
ou [5_16]
[5_17]
où :
wsup masse de la solution en suspension en grammes
[5_18]
La masse d’eau ws est égale au volume d’eau non occupé par les particules en suspension
multiplié par la masse volumique de l’eau γw :
[5_19]
[5_20]
[5-21]
r est la densité des particules en suspension à l’instant t. Celle-ci est obtenue à partir de la
lecture de divisions (R) sur le densimètre qui doit être corrigée pour obtenir une lecture de
divisions corrigées (R1). Suivant le schéma de lecture ci-dessous :
[5_22]
[5-23]
[5_24]
[5_25]
Calcul de Hr et D :
Hr :
[5_26]
[5_27]
D (µm) :
[5_28]
Il est à remarquer que le pourcentage d’éléments inférieurs à D qui sont contenus dans la
suspension est obtenu par la mesure d’une densité (rapport de deux masses spécifiques).
Ainsi, la mesure de la densité (r), faite à l’instant t et à la profondeur Hr (car leur
sédimentation est plus rapide), où il n’y a plus de particules de diamètre supérieur à D et en
notant qu’à ce même instant t, la concentration de la suspension en particules de diamètre
inférieur à D à la profondeur Hr est la même qu’à l’état initial.
Dans un premier temps, il est supposé que les particules en suspension sont également
dispersées dans toutes les couches transversales de la suspension. Au fil du temps, la
sédimentation des particules a lieu, et selon la loi de Stokes, les plus grosses particules
sédimentent plus rapidement que les plus petites.
La taille des particules est déterminée à partir de la loi de Stokes (exposée ci-dessus). Ainsi, à
tout moment le diamètre équivalent des particules peut être déterminé à partir de la vitesse de
sédimentation.
[5_29]
avec :
v, vitesse limite de chute (en m/s) ;
Sachant que :
[5_30]
avec :
h, hauteur de chute ou niveau de liquide (en m) ;
[5_31]
[5_32]
avec :
ws, la masse des particules contenues dans le prélèvement de 10ml en cours d’étude en
g
Cependant, il faut rappeler que la validité de l'équation de Stokes n'est bonne que lorsque
le nombre de Reynolds (Re) est inférieur à 0,2. (cf. ce qui a déjà été énoncé ci-dessus). Par
conséquent, cette technique est applicable aux poudres qui ont des grains dont la taille est
comprise entre 1 µm et 100 µm ; dont la masse volumique et très proches et de formes
comparables qui ne subissent aucun changement chimique ou physique dans le liquide de
suspension : ni gonflement, ni dissolution, ni réaction chimique et enfin dont la masse
volumique est supérieure à celle du liquide.
Il est à noter que l’inconvénient majeur de cette technique est le temps qu’il faut pour récolter
les données qui sont parfaitement reproductibles lorsque le procédé est bien respecté.
La centrifugation analytique
Le granulomètre laser :
Le granulomètre laser est basé sur le principe de la diffraction de la lumière. Les particules en
suspension (dans l'eau ou dans un courant d’air) diffractent la lumière émise par un faisceau
laser. La répartition spatiale de cette lumière, fonction de la taille des particules, est
enregistrée par un ensemble de photodiodes. L’analyse de cette distribution dans le plan focal
permet de déterminer la proportion de chaque classe dimensionnelle.
Exemple de granulometre
laser (CILAS)
Dans cette méthode, il faut analyser l’image. La prise de vue des grains à l’aide d’un
microscope permet d’obtenir une image qui est alors analysée au moyen d’un logiciel
spécialisé. Ce dernier procède au comptage et au dimensionnement (nombre de pixels) de
chacune des particules, puis associe à chacune une ellipse (ou un carré, un losange, etc.) qui
définit la forme générale du grain. Le logiciel permet alors d’obtenir une description
numérique et géométrique de l’ensemble granulaire qui permet d’établir des distributions en
nombre, en surface et en forme (granulomorphie). L'analyse d'image permet également de
déterminer la couleur des grains, ce qui permet d'établir des courbes différentiées selon la
nature des grains.
L’« essai au bleu », est un essai utilisé en géotechnique pour déterminer la propreté d'un sable,
d'un granulat et plus généralement d’un sol, et les différents types d'argiles qu'il contient. Le
bleu de méthylène est en effet adsorbé préférentiellement par les argiles du type
montmorillonites (argiles gonflantes) et les matières organiques. Les autres argiles (Illites et
Kaolinites) sont peu sensibles au bleu.
Lorsqu’un échantillon de sol non lavé est frotté dans une main, il se peut que des traces de
poussière reste sur la main. Ces traces sont le signe de la présence de particules fines. Il est
également possible de les mettre en évidence en plongeant l’échantillon dans une solution
aqueuse avec défloculant et après agitation et sédimentation (assez longue), les sédiments fins
se sont déposés à la fin et leur pourcentage peut être estimé en faisant le rapport entre leur
épaisseur et l’épaisseur totale de sédiments.
Ces particules fines sont très souvent de l’argile ou il peut s’agir d’autres particules qui
peuvent également avoir des effets néfastes, comme des scories, du charbon, des particules de
bois, des végétaux en décomposition.
En France le mode opératoire est défini par la norme NFP 94-068. Il est similaire à celui de la
norme européenne relative aux sables ou gravillons.
Préparation
La fraction 0/5 de l’échantillon initial de sol à examiner est séparée par tamisage et si
nécessaire par lavage. La proportion en masse de la fraction 0/5 peut être déterminée. Il est
préférable que la masse de la fraction 0/5 ainsi extraite soit d’environ 200g.
Une masse humide de la fraction 0/5 de sol est préparée, de poids compris entre 30 et 60 g
Exécution de l'essai
500 ml d'eau déminéralisée ou distillée sont ajoutés à l’échantillon de la fraction 0/5 dans un
récipient de 3 litres. La solution est agitée à l'aide de l'agitateur à ailettes à une vitesse de
700 tr/min pendant au minimum 5 min, puis de manière permanente à 400 tr/min. 5 ml de
solution de bleu de méthylène sont ensuite ajoutés à l'aide de la burette et, au bout de 1
minute, le test de la tache est effectué sur papier filtre de la manière suivante :
prélever à l'aide de la baguette de verre une goutte de suspension que l'on dépose sur le
papier filtre,
observer la tache formée qui se compose d'un dépôt central de matériau, coloré d’un
bleu sombre, entouré d'une zone humide incolore
la goutte prélevée doit être telle que le diamètre du dépôt soit compris entre 8 et
12 mm
Le test est dit positif si, dans la zone humide, apparaît autour du dépôt central auréole bleu
clair persistante. Il est dit négatif si l'auréole est incolore : il faut alors rajouter 5 ml de
solution de bleu de méthylène :
Lorsque le test est positif laisser s'opérer l'adsorption du bleu, qui n'est pas instantanée en
effectuant des tests de minute en minute sans ajout de solution Si l'auréole bleu clair disparaît
à la cinquième minute, procéder à de nouvelles injections de solution de bleu de 2 ml. Chaque
addition est suivie de tests effectués de minute en minute. L'opération est renouvelée jusqu'à
ce que le test demeure positif pendant cinq minutes consécutives, le dosage est alors terminé :
Résultats
Il s’agit d’une mesure indirecte de la surface spécifique des fillers qui permet de détecter et de
mesurer la pollution par les argiles dont la nocivité dépend de la dimension. Les valeurs ainsi
obtenues de VB sont de l'ordre de 30 pour une montmorillonite, de 5 pour une illite et de 2
pour une kaolinite.
Préconisations
D’après le Guide des Terrassements Routiers (GTR 92)10, six catégories de sols sont définies
en France selon la valeur de VBS :
La teneur en eau d’un sol peut en effet beaucoup varier au cours des opérations de
terrassements ou au cours du temps suite aux variations des nappes phréatiques ou de
l’écoulement des eaux de surface ou souterraines plus ou moins freinées en fonction de la
perméabilité des sols.
Pour la fraction fine (graviers exclus), la cohésion tient à la présence d'eau notamment pour
les argiles et les limons où les pressions interstitielles sont le plus efficaces. En effet le rapport
entre la masse et la surface du grain est d’autant plus faible que la taille du grain est faible. A
titre d’exemple, soit un cube de côté a et de masse M, alors son rapport surfacique est M/6a²,
si ce cube est fractionné en petits cubes de coté a/100, alors chaque mini cube a alors un
rapport surfacique égal à (M/1003)/(6*(a/100)²) soit 1/100*(M/6a²).
Lorsque la fraction fine d’une couche de sol étudiée est parfaitement sèche, le matériau serait
cohérent. Au-dessus d'une certaine teneur (limite de plasticité), il peut être possible de la
pétrir en forme de boudin, de boulette ou de fil. Pour une teneur plus forte (limite de
liquidité), il forme un liquide, visqueux, qui ne conserve pas la forme qui lui a été donnée. La
détermination, soigneusement normalisée, de ces deux teneurs caractéristiques appelées
limites d'Atterberg, est un élément important d'identification, et permet déjà de prévoir
certaines propriétés.
La consistance d'un sol fin (exemple : le sable) ou cohérent (exemple : l'argile) peut être
appréciée par un essai de résistance mécanique (essai de rupture en compression simple, essai
de poinçonnement ou de pénétration). Cette consistance varie considérablement avec la teneur
en eau du sol.
En faisant décroître progressivement la teneur en eau d'un échantillon de sol, il est assez facile
de constater que le sol passe successivement par plusieurs états:
la limite de liquidité notée (WLou encore LL), caractérise la transition entre un état
plastique et un état liquide. C'est la teneur en eau pondérale, exprimée en pourcentage,
au-dessus de laquelle le sol s'écoule comme un liquide visqueux sous l'influence de
son propre poids. Pour la déterminer, il faut utiliser la table à chocs de Casagrande
appelée également boîte de Casagrande ci-dessous :
Limite de liquidité : Le sol est mélangé à une quantité d'eau. La pâte obtenue est
placée dans une coupelle de 100 mm de diamètre environ. Sur la pâte lissée, est tracée
une rainure normalisée avec un outil spécial. À l'aide d'une dame, une série de chocs
est appliquée à la coupelle. L'expérience prend fin dès que le contact des deux lèvres
de la rainure sur une longueur de 10 mm est constaté. La limite de liquidité est la
teneur en eau en % qui correspond à une fermeture en 25 chocs. Cette expérience est
reconduite avec une autre quantité d’eau afin d’obtenir entre 3 et 5 paires de valeurs.
Différents essais sont menés avec différentes teneurs en eau w n,i. Par la suite chaque
couple de valeurs (log(n) ; wn) est porté sur un graphique semi logarithmique pour
tracer la courbe
f(log n) = wn. A
l’aide de ces
points il est
possible de tracer
une droite comme
illustré ci-
dessous :
Cette droite
s’appelle la droite
d’écoulement. Elle
fait un angle β
avec l’horizontale ou l’axe des abscisses. La pente de cette droite est donc –tan(β).
[5_33]
[5_34]
[5_35]
avec deux points connus I(ni ; wi) et J(nj ;wj) tels que 35>ni ;nj>15
la limite de plasticité notée (WP ou LP), caractérise la transition entre un état solide
et un état plastique. Cette limite indique la teneur en eau pondérale, en pourcentage,
optimale pour travailler un sol et favoriser le compactage. En dessous de cette limite,
le sol est friable ou facilement ouvrable d'un point de vue agronomique.
Mode opératoire :
Ensuite, déposer un
échantillon de sol plus
ou moins humide et
peser le récipient avec
son contenu et noter sa
masse M2.
Ensuite, il suffit d’appliquer les formules ci-dessus en vérifiant que les trois masses soient
exprimées dans la même unité et obtenues avec la même balance.
[5_36]
L'indice de plasticité mesure l'étendue de la plage de teneur en eau dans laquelle le sol
se trouve à l'état plastique. Suivant la valeur de leur indice de plasticité, les sols peuvent
se classer comme suit :
0 < Ip < 5 Non plastique (l’essai perd sa signification dans cette zone
de valeurs)
5 < Ip < 15 Moyennement plastique
15 < Ip < 40 Plastique
Ip > 40 Très plastique
La plasticité est une propriété caractéristique des éléments très fins ou argileux du sol,
en relation avec l'existence de couches d'eau adsorbée avec ou sans électrolytes
dissociés. Les limites d'Atterberg et l'indice de plasticité d'un sol varient non seulement
avec l'importance de sa fraction argileuse mais également avec la nature des minéraux
argileux et des cations adsorbés. À titre d'exemple, les valeurs les plus fortes de cet
indice sont obtenues avec les montmorillonites et plus particulièrement celles chargées
du cation sodium (Na+).
[5_37]
[5_38]
Cette indice s’il est supérieur à 1 indique que le sol est susceptible d’affaissement.
[5_39]
[5_40]
La densité relative ou indice de densité est le rapport de la différence entre les taux de
vide d'un sol sans cohésion dans son état le plus meuble et son état naturel existant à la
différence entre son taux de vide dans les états le plus meuble et le plus dense. Il est en
rapport avec l'indice des vides
porosité ou le taux de vide du sol donné avec celui du même sol dans son état le plus
meuble et le plus dense possible et, par conséquent, le terme de densité relative est
introduit.
La densité relative est un caractère arbitraire du dépôt sableux. Au sens réel, la densité
relative exprime le rapport entre la diminution réelle du volume des vides dans un sol
sableux et la diminution maximale possible du volume des vides, c'est-à-dire jusqu'à
quel point le sable étudié peut être capable de se densifier davantage au-delà de son
état naturel. La détermination de la densité relative est utile pour le compactage des
sols à grains grossiers et pour évaluer la capacité portante sûre en cas de sols sableux.
Pour des sables graveleux très denses, il est possible d'obtenir une densité relative
supérieure à un. Cela signifie qu'un tel garnissage dense naturel n'a pas pu être obtenu
en laboratoire.
[5_41]
Ayadat et Belouahri ont stipulé que la plupart des sols affaissables ont des argiles
inactives.
AC<0.75 inactif
0.75<AC<1.25 normal
1.25<AC actif
L'essai Los Angeles permet de mesurer les résistances combinées aux chocs et à la
détérioration progressive par frottement réciproques des éléments d'un granulat. Ce mode
opératoire s'applique aux granulats utilisés pour la constitution des chaussées et bétons
hydrauliques. Il est utilisé pour la classification GTR.
Une tablette en saillie placée à 40 cm du rebord du couvercle. Elle est démontable, en
acier dur et de section rectangulaire. Elle repose suivant un plan diamétral, le long
d'une génératrice et est fixée par des boulons sur les parois latérales ;
Un moteur assurant au tambour de la machine une vitesse de rotation comprise entre
30 et 33 tours par minute ;
Un bac destiné à ramasser les matériaux après l'essai ;
Un compte-tours de type rotatif, arrêtant au nombre de tours voulu ;
Une charge qui est constituée par des boulets sphériques de 47 mm de diamètre et
pesant 420 et 445 g. Ces boulets ne doivent pas s'user de façon asymétrique.
Ci-dessus une photographie de la machine et des boulets utilisés pour l’essai Los Angeles
[5-42]
LA : c'est la résistance à la fragmentation par chocs et par frottements réciproques des
éléments du granulats.
Le mode opératoire de cet essai débute par la mise en route en exécutant à la machine 500
rotations à une vitesse comprise entre 30 et 35 tr/min pour toutes les classes sauf la classe 25-
50 mm où le nombre de rotation est de 1000.
Après l'essai, les granulats sont emportés et ramassés dans le bac placé sous l'appareil pour
éviter les pertes des granulats, il faut apporter l'ouverture au-dessus de ce bac.
Puis le matériau contenu dans le bac est ensuite tamisé sur le tamis de 1,6 mm. Après, le refus
à 1,6 mm est lavé dans un autre bac et qui est versé dans le bac troué. Dès que le refus est
séché à l'étuve alors il est possible de déterminer la masse M1 et de calculer le coefficient Los
Angeles en utilisant l’équation [5_42] ci-dessus.
Valeurs LA Appréciations
< 15 Bon à Très bon
15 à 25 Moyen à Bon
25 à 40 Faible à Moyen
> 40 Médiocre
Il n’est pas possible d’étendre ce processus d’usure aux sables dont leur classe granulaire est
inférieure à 4 mm car leur usure n’évolue peu avec cet essai. Il est donc préférable pour ces
classes granulaires d’effectuer des essais par fragmentation.
Tamiser l’échantillon à sec sur chacun des deux tamis de la classe granulaire choisie, en
commençant par le tamis le plus grand.
L’essai consiste à faire évoluer le matériau par frottement des éléments les uns sur les autres,
sur le cylindre de la machine en rotation et sur les boulets (charge abrasive).
La granulométrie de l'échantillon doit être conforme à l'une des classes granulaires types : 4-
6,3 ; 6,3-10 ; 10-14 ; 25-50. La granularité du matériau soumis à l'essai est choisie parmi les 4
classes granulaires avec les charges correspondantes qui sont :
d/D Masse (g) Ech. Masse(g) Charge
• 4/6,3 mm 500 ± 2 2000 ± 5
• 6,3/10 mm 500 ± 2 4000 ± 5
• 10/14 mm 500 ± 2 5000 ± 2
• 25/50 mm 10 000 ± 20 0
Pour l’essai humide (en présence d’eau), ajouter 2.5 l d’eau et seulement 2 l pour la classe
granulaire 25/50.
Replacer le couvercle et serrer les boulons de fixation. S’assurer que les cylindres sont
étanches pendant leur rotation.
Enlever le granulat après l’essai. Recueillir le granulat dans un bac placé sous l’appareil, en
ayant soin d’amener l’ouverture juste au dessus de ce bac, afin d’éviter les pertes de
granulat.
Tamiser le matériau contenu dans le bac sur le tamis de 1,6mm ; le matériau étant pris en
plusieurs fois afin de faciliter l’opération.
Laver le refus à 1,6 mm dans un bac, bien remuer à l’aide d’une truelle. Puis verser dans le
bac perforé, égoutter et sécher à l’étuve jusqu’à poids constant.
Un moteur assure une rotation de 100 tours par minute et s’arrête en achevant :
soit les 12 000 tours pour un échantillon de granulométrie variant entre 4-14 mm
ou soit 14 000 tours pour un échantillon ayant une granulométrie variant de 25-50 mm.
Enlever le granulat après l’essai. Recueillir le granulat dans un bac placé sous l’appareil, en
ayant soin d’amener l’ouverture juste au-dessus de ce bac, afin d’éviter les pertes de granulat.
Tamiser le matériau contenu dans le bac sur le tamis de 1,6mm ; le matériau étant pris en
plusieurs fois afin de faciliter l’opération.
Laver le refus à 1,6 mm dans un bac, bien remuer à l’aide d’une truelle. Puis verser dans le
bac perforé, égoutter et sécher à l’étuve jusqu’à poids constant.
[5_43]
Avec :
M : masse de l’échantillon 500 ou 10.000 g selon la classe granulaire étudiée,
Le coefficient mesure le % d’usure, plus il est petit et plus la résistance à l’usure est grande.
L’objectif de cet essai est de déterminer la fragmentation d’un sable ou la fraction 0.2 à 2mm
ou celle de 0.2 à 4mm.
Pour le critère d’identification retenu par le GTR la friabilité permet de préciser le classement
des sables D1, B1 et B2 pour un emploi en couche de forme.
L’appareillage nécessaire est une séris de tamis, un appareil Micro-Deval et une charge
broyante constituée de billes métalliques sphériques.
Préparation de l’échantillon :
tamiser par voie humide le matériau sur les tamis 0.2 et 2mm ou 0.2 et 4mm
sécher à l’étuve le refus sur le tamis de 0.2mm
homogénéiser et peser l’échantillon et préparer 500 g pour l’essai
préparer la charge broyante qui doit comprendre la somme de 9 billes de 30mm de
diamètre dont la masse totale doit être comprise entre 925 et 985 g et de 21 billes de
18mm de diamètre dont la masse totale doit être comprise entre 440 et 500 g.
Exécution de l’essai :
introduire la charge dans le cylindre d’essai puis les 500 g du matériau préparé
ajouter 2.5 litres d’eau
mette le cylindre en rotation à la vitesse de 100 tr/min pendant 15 minutes
verser ensuite lentement la totalité du contenu du cylindre sur deux tamis superposés
de 8mm et de 0.1 mm
laver l’ensemble sous jet de tamis jusqu’à l’eau claire, puis enlever le tamis de 8mm
sécher le refus au tamis de 0.1 mm
peser à 0.1% près le refus sur le tamis de 0.1mm, soit m’ cette masse
La masse des éléments inférieurs à 0.1mm produits durant l’essai est égale à m=500-m’.
[5_43]
La limite supérieure préconisée pour pouvoir utiliser le matériau en couche de forme est FS =
60.
Cet essai, hors préparation de la fraction soumise dure environ une demi-journée.
Ces essais ont pour vocation de faire un bilan de santé du sol et après cette analyse en
fonction des concentrations relevées certaines propositions peuvent être faites afin de pouvoir
réutiliser le sol avec ou sans traitement voire de décider d’abandonner le projet.
la campagne française : terres cultivées ou non nommées « terres agricoles » car elles
ont été exploitées par les hommes
les zones ou friches industrielles en activité ou à l’état d’abandon
Les analyses de sol sont réalisées sur des échantillons prélevés au champ et envoyés au
laboratoire. Sur l’échantillon constitué, séché et tamisé, différentes méthodes d’analyses sont
mises en œuvre pour extraire les éléments que l’on recherche.
Analyse physico-chimique de sol
Les reliquats d’azote sont mesurés en sortie d’hiver pour estimer la quantité d’azote présente
dans le sol et qui pourra donc être soustraite de l’azote à apporter aux cultures. L’azote est très
soluble et se déplace dans le sol avec l’eau. Le résultat du reliquat d’azote n’est donc
utilisable que l’année où il a été effectué sur le type de so.
Les analyses biologiques caractérisent la matière organique des sols et leur dynamique. Les
principales analyses biologiques réalisées en routine sont le fractionnement granulométrique
des matières organiques, la biomasse microbienne et le potentiel de minéralisation du carbone
et de l’azote.
Tout site industriel, même les zones commerciales ou bases logistiques sont amenés à être
démanteler et constituent d’ores et déjà des friches industrielles potentielles plus ou moins
nocives pour l’environnement et pour l’économie lors des travaux de réhabilitation, de
traitements éventuels et de mise en décharge
La toute première opération consiste tout d'abord à établir un diagnostic précis et détaillé des
pollutions. Il se basera sur des études historiques des activités qui s'y sont déroulé et sera
confirmé par des prélèvements in-situ qui détermineront les concentrations des contaminants.
Ces derniers peuvent être issus d'activités industrielles, agricoles ou urbaines, ou même de
plusieurs origines successives et croisées.
l'étendue de la pollution et sa durée dans le temps. Elle peut être locale (conséquences
sur une zone géographique réduite) ou diffuse (plus largement répandue).
le caractère de la pollution accidentelle ou ponctuelle de la pollution chronique,
répétée.
Lorsque la pollution est concentrée les essais de traitements seront nécessaire pour retenir le
traitement optimal. Ces essais permettent de valider la technique la plus adaptée (coûts et
délais comparés avec d’autres solutions). La pertinence du choix dépendra de la nature des
polluants, de l'étendue du phénomène et de la typologie du sol rencontré.
Il existe pour ces cas de pollution quatre familles de remédiation des sols :
les traitements physiques (extraction sous vide, confinement, pompage, séparation
granulométrique et lavage),
Deux catégories d'essais sont menées de manière complémentaire : ceux en laboratoire et ceux
sur site. Les premiers porteront sur de petits échantillons, tandis que les seconds auront lieu
sur des volumes plus grands et des temps plus longs.
Les essais ne sont pas utiles pour les molécules dont la biodégradabilité en voie
aérobie est reconnue (cas de la biodégradabilité des polluants) mais sont
recommandés en cas de doute
Les essais sont recommandés dans certains contextes défavorables à une activité
microbienne (pH extrême, milieu salin, présence de composé potentiellement
toxique, etc…)
Après une caractérisation initiale incluant les paramètres critiques, l’essai consiste à placer un
mélange de sol et d’eau dans une enceinte hermétiquement close contenant un important ciel
gazeux. Les essais sont classiquement effectués à température ambiante. La concentration en
nutriments est ajustée pour permettre une biodégradation optimale et l’activité microbienne
aérobie est suivie par respirométrie (dosage O2 et CO2). Le test consiste à évaluer l’activité
microbienne du sol par suivi de la diminution de la teneur en oxygène, et l’augmentation de la
teneur en dioxyde de carbone. La biodégradation du polluant est confirmée par dosage du
polluant en fin d’essai.
Objectif
Cet essai permettra de confirmer ou non la capacité de la microflore naturelle du sol à réaliser
cette biodégradation.
L’objectif est de valider ou non la faisabilité d’un traitement biologique aérobie in situ et
d’identifier les voies d’optimisation potentielles sur les bases de l’activité respiratoire.
Résultats attendus
Le résultat attendu est de type go/no go. L’interprétation de l’ensemble des données acquises
au cours de l’essai devra permettre de valider ou non la faisabilité d’un traitement biologique
aérobie.
Si la faisabilité est validée, des essais plus poussés pourront être réalisés notamment
des essais de terrain.
Si la faisabilité n’est pas validée, d’autres techniques de dépollution devront être
envisagées. La réalisation d’essais de terrain plus coûteux n’est pas nécessaire.
Les échantillons de sol et d’eau testés doivent être prélevés dans une zone
représentative de la pollution du site.
La caractérisation initiale devra intégrer l’ensemble des paramètres limitants en plus
de la caractérisation qualitative et quantitative du polluant. Si besoin, la
caractérisation initiale du sol pourra intégrer la recherche des microorganismes
biodégradant le polluant. Cette étude pourra par exemple être réalisée par des
techniques de biologie moléculaire.
Il est recommandé de suivre en parallèle la consommation de l’oxygène et la
libération de dioxyde de carbone car ces paramètres peuvent être influencés par
d’autres facteurs (libération de CO2 par des sols riches en carbonates, consommation
Après une caractérisation initiale incluant les paramètres limitants et une caractérisation
géochimique des eaux et après contrôle de la capacité de la microflore à biodégrader le
polluant (si nécessaire), l’essai consiste à placer un mélange de sol (<25% en général) et d’eau
dans une enceinte hermétiquement close contenant un important ciel gazeux. Les essais sont
classiquement effectués à température ambiante Différents réacteurs sont créés de façon à
disposer plusieurs conditions d’essais et ainsi évaluer la pertinence de différents amendements
ou autres paramètres de dégradation (pH, par exemple). Il est préparé un grand nombre de
réacteurs de façon à sacrifier à échéances régulières des réacteurs et mesurer la concentration
en polluant dans les sols et les eaux de chaque flacon (et les gaz si suspicion de volatilisation).
Les essais sont mélangés et aérés, afin de simuler un apport d’air dans le sous-sol.
Objectif
Cet essai donne une information qualitative sur la faisabilité d’un traitement biologique
aérobie de la pollution des eaux du site. L’objectif est simplement de répondre à la question :
Le biosparging est-il une technique de dépollution potentiellement adaptée à mon polluant ?
Résultat attendu
Le résultat attendu est de type go/no go et permet de vérifier si les conditions d’un site
(polluant/géochimie, micro-organismes, …) sont favorables à un traitement, ou peuvent être
rendues favorables.
Si la faisabilité est validée, des essais plus poussés pourront être réalisés si besoin.
Si la faisabilité n’est pas validée, d’autres techniques de dépollution devront être
envisagées.
Cet essai en laboratoire ne permet pas de valider la possibilité d’atteindre un seuil résiduel de
pollution ou une durée de traitement sur site.
Les échantillons de sol et d’eau testés doivent être prélevés dans une zone
représentative de la pollution du site.
La caractérisation initiale devra intégrer l’ensemble des paramètres limitants en
plus de la caractérisation qualitative et quantitative du polluant. Si besoin, la
caractérisation initiale du sol pourra intégrer la recherche des microorganismes
biodégradant le polluant. Cette étude pourra par exemple être réalisée par des
techniques de biologie moléculaire.
Pour fiabiliser et faciliter l’interprétation des essais, il est recommandé de travailler
en triplicat et de mettre en place plusieurs témoins dont un témoin de volatilisation
et un témoin abiotique.
L’évolution des teneurs est comparée à celles des réacteurs « témoin » de façon à
prendre en compte les éventuelles disparitions abiotiques.
Une cinétique de biodégradation du polluant peut être approchée. Toutefois,
l’expérience montre que les vitesses de biodégradation observées sur le terrain
peuvent être significativement différentes de celles mesurées au cours de cet essai.
Le sparging consiste à injecter un gaz (le plus souvent de l'air) sous pression en dessous du
toit de la nappe. L'air en se propageant à travers la zone saturée et en remontant vers la surface
crée des canaux où il entre en contact avec les polluants dissous ou adsorbés, ce qui entraîne
leur volatilisation
Cet essai consiste à mettre en œuvre un traitement à échelle réduite. L’injection d’air est
maintenue dans les eaux souterraines, et le suivi de l’évolution de différents paramètres est
effectué au cours du temps.
Cet essai permet d’appréhender les difficultés liées à l’hétérogénéité du sol. Il est donc
fortement recommandé de le réaliser sur de longues durées en cas de géologie complexe. Il
peut permettre également d’optimiser le nombre d’ouvrages nécessaires en approchant les
zones d’influence.
Pour le sparging, cet essai devra être couplé à un essai de venting (les essais pour cette
technique et cette technique de traitement sont développées ci-dessous) pour la récupération
des gaz du sol.
Objectifs
Résultats attendus
L’essai de traitement doit être réalisé sur une zone représentative du site en termes de
pollution (nature et concentration) et de géologie.
Il est conseillé de répéter l’essai plusieurs fois (3 à 5) afin de vérifier la répétabilité
des résultats.
L’utilisation a minima d’un ouvrage d’injection et de 3 ouvrages de contrôle est
recommandée. Les ouvrages de contrôles sont généralement éloignés de l’ouvrage
d’injection d’une distance comprise entre 1,5 m et une distance correspondant au
double de la profondeur immergée de la crépine d’injection. Le positionnement des
ouvrages de contrôle selon différentes directions (et différentes profondeurs si
possible) peut permettre de mieux apprécier l’hétérogénéité du terrain. Les
caractéristiques des ouvrages (profondeur, diamètre, équipement dont hauteur et
positionnement des tubes pleins et crépinés) doivent être les plus proches possibles
de celles des puits qui seront utilisés ultérieurement pour le traitement.
Le sparging prévoit une injection d’air en fond d’aquifère. La réalisation d’injection
d’air dans des piézomètres classiques, crépinés sur toute la hauteur de la nappe, n’est
pas pertinente. Dans tous les cas, l’équipement des puits utilisés devra être connu et
précisé dans le rapport d’essai.
L’équipement nécessaire au test comprend un compresseur d’air et des éléments de
réglage et de mesure (vannes, manomètres…). Une unité pilote pour le venting
pourra également être nécessaire selon la durée de l’essai et le niveau de pollution.
Pour les aquifères puissants, l’acquisition des données permettant d’avoir une vision
3D de la zone d’influence du puits d’injection peut être intéressante. Généralement,
le rayon d’influence est plus faible en profondeur.
Cet essai consiste à faire circuler un volume donné d’air dans une colonne de sol pollué, et à
suivre au cours du temps la quantité de polluant volatilisé (USEPA, 1991). Cet essai est
conseillé pour des polluants aux caractéristiques méconnues ou pour des mélanges complexes
de composés, mais n’est pas nécessaire pour des polluants classiques ayant déjà été traités
avec succès par venting (BTEX, supercarburant…) ou dont la pression de vapeur dépasse 10
mm Hg (1 340 Pa).
Objectif
Cet essai permet de vérifier la faisabilité de l’extraction des polluants du sol à traiter par une
circulation d’air forcée.
Résultat attendu
Le résultat attendu est de type go/no go. L’interprétation des données acquises au cours de
l’essai devra permettre de valider ou non la faisabilité du venting ou du bioventing.
Si la faisabilité est validée, des essais plus poussés pourront être réalisés si besoin
(voir Figure 14).
Si la faisabilité n’est pas validée, d’autres techniques de dépollution devront être
envisagées.
Sauf cas particulier, cet essai ne permet pas de valider la possibilité d’atteindre un seuil
résiduel de pollution.
L’échantillon de sol testé doit être prélevé dans une zone fortement polluée du site.
L’essai nécessite un échantillon de sol de 5 à 10 kg. Cette masse doit être suffisante
pour pouvoir répéter l’essai si besoin.
L’essai ne doit pas être obligatoirement réalisé sur une carotte de sol intact mais le
sol doit être le moins remanié possible pour limiter la volatilisation des polluants.
Toutefois, travailler sur une carotte de sol intact permet de réaliser en complément
une estimation de la perméabilité (voir 1ère Partie au paragraphe 2.3 Perméabilité
des sols).
Les colonnes généralement utilisées présentent un diamètre de 5 à 10 cm pour une
hauteur de 30 à 60 cm. Le dispositif expérimental doit permettre a minima la mesure
du débit d’air traversant la colonne et une mesure régulière de la teneur en polluant
dans l’air en sortie de colonne.
Le sol est mis en colonne et le test consiste à faire passer à travers le sol un volume
d’air correspondant à 2 000 fois le volume des pores sur un laps de temps d’environ
6 jours. Les modélisations montrent qu’un tel renouvellement simule un venting de 3
à 6 ans sur le terrain (USEPA 1991). La concentration en polluant dans l’air en sortie
de colonne est suivie tout au long de l’essai. L’interprétation de l’essai se fait grâce
au suivi de la teneur en polluant volatilisé :
Si la teneur en polluant dans l’air en sortie de colonne a baissé d’au moins
80 % au cours du test, la faisabilité du venting est validée.
Après une caractérisation initiale incluant le polluant, les paramètres critiques du bioventing
et après contrôle de la capacité théorique de la microflore à biodégrader le polluant (cas de
biodégradabilité des polluants), l’essai consiste à placer le sol pollué dans une enceinte
hermétiquement close contenant un important ciel gazeux. La concentration en nutriments,
l’humidité et la température sont ajustées pour permettre une biodégradation optimale et
l’activité microbienne globale aérobie est évaluée par respirométrie (dosage O2/CO2).
L’activité microbienne du sol est évaluée par le suivi de la consommation d’O2 ou la
production de CO2 et la biodégradation est confirmée par dosage du polluant dans
l’échantillon de sol après incubation.
Ce type d’essai en microcosme est principalement recommandé pour des polluants peu
connus ou pour des sols très particuliers où les microorganismes pourraient être inactifs (pH
extrême, présence de toxique…). Dans les cas impliquant des polluants connus pour être
biodégradables (gazole/fuel domestique, kérosène…) et pour lesquels le bioventing a déjà été
utilisé avec succès, cet essai en laboratoire peut être intéressant si la pollution est ancienne et
peu biodisponible mais les essais de terrain sont plus appropriés pour évaluer la faisabilité
d’un traitement (vitesse de biodégradation, seuil résiduel…).
Objectif
L’objectif est de valider ou non la faisabilité d’un traitement biologique aérobie in situ et
d’identifier des voies d’optimisation potentielle.
Résultats attendus
Le résultat attendu est de type go/no go. L’interprétation de l’ensemble des données acquises
au cours de l’essai devra permettre de valider ou non la faisabilité du bioventing.
Si la faisabilité est validée, des essais plus poussés pourront être réalisés notamment
des essais de terrain.
Si la faisabilité n’est pas validée, d’autres techniques de dépollution devront être
envisagées. La réalisation d’essais de terrain plus coûteux n’est pas nécessaire.
L’échantillon de sol testé doit être prélevé dans une zone représentative de la
pollution du site. L’essai nécessite un échantillon de sol de 1 à 5 kg.
La caractérisation initiale du sol devra intégrer l’ensemble des paramètres critiques
(pH, texture…) en plus de la caractérisation qualitative et quantitative du polluant.
Si besoin, la caractérisation initiale du sol pourra intégrer la recherche des
microorganismes biodégradant le polluant. Cette étude pourra par exemple être
réalisée par des techniques de biologie moléculaire (guide ADEME janvier 2015).
Le volume des microcosmes utilisés varie généralement entre 100 et 500 mL pour
que le sol testé dispose d’un volume d’air et donc d’oxygène important. Un rapport
volume d’air/volume de sol d’au moins 10 est préconisé. La température
d’incubation varie entre 20°C et 25°C. L’activité microbienne du sol est suivie au
cours du temps par respirométrie (production de CO2 ou consommation d’O2) ou par
biologie moléculaire (quantification d’ARN).
La durée de ce type d’essai en batch est généralement compris entre 1 et 6 semaines
selon la nature du polluant.
Ce type d’essai en batch permet de tester facilement différentes voies d’optimisation
comme l’ajout de nutriments (azotés principalement) ou de bactéries
(bioaugmentation). Ainsi, il doit permettre de connaitre les conditions optimales de
traitement qui pourront être appliquées au cours de l’essai de traitement en colonne.
Objectifs
Résultats attendus
Il est toujours préférable de réaliser l’essai sur une carotte de sol. Si ce n’est pas
possible, le sol remanié doit être compacté dans la colonne de façon à se rapprocher
le plus possible des conditions de terrain.
L’échantillon de sol testé doit être prélevé dans une zone fortement polluée du site et
de préférence par carottage. L’essai nécessite le prélèvement d’un échantillon de sol
de 5 à 10 kg.
Ce test consiste à extraire de l’air d’un puits à différents débits et à mesurer les dépressions
associées. Le test de perméabilité in situ est toujours préférable aux essais en laboratoire pour
estimer les débits d’air extraits car il intègre les caractéristiques géologiques du site en vraie
grandeur. Cet essai qui peut généralement être réalisé sur une journée est toujours
recommandé, quel que soit le polluant et la nature du sol. Les données recueillies pourront
directement être utilisées pour le dimensionnement du traitement.
Objectifs
Résultats attendus
Distance du puits d’extraction à laquelle la dépression dans le sol atteint entre 0,1 et 1 %
de la dépression mesurée dans le puits d’extraction
Distance du puits d’extraction à laquelle le taux annuel de renouvellement de l’air du sol
atteint 1 000 pour le venting et 100 pour le bioventing
Ainsi, le rapport d’essai devra toujours donner une définition du rayon d’influence et la méthode
utilisée pour sa mesure ou son calcul.
L’essai pilote doit être réalisé sur une zone représentative du site en termes de
pollution (nature et concentration) et de géologie.
L’essai nécessite a minima l’installation d’un puits d’extraction et 2 à 3 puits de suivi
idéalement disposés à différentes distances et selon différentes orientations par
rapport au puits de venting (Figures I et II ci-dessous). Les caractéristiques du puits
de venting (profondeur, diamètre, équipement dont hauteur et positionnement des
tubes pleins et crépinés) devront être les plus proches possibles de celles qui seront
utilisées ultérieurement pour le traitement. Le diamètre de l’équipement des puits est
généralement compris entre 5 et 10 cm selon les débits attendus.
Si le forage de nouveaux puits n’est pas possible, l’essai pourra éventuellement être
réalisé sur des puits existants. Toutefois, la représentativité de l’essai dépendra
fortement de l’équipement du puits qui sera utilisé pour l’extraction ; une validation
d’expert préalable au test est recommandée. Dans tous les cas, l’équipement des puits
réutilisés devra être connu et précisé dans le rapport d’essai.
L’équipement nécessaire au test de perméabilité comprend un extracteur d’air, un
séparateur air/eau, un filtre à charbon actif (Figure II ci-dessous). L’ensemble est
généralement monté sur une unité mobile et instrumentée par : une vanne de
régulation, un débitmètre, un manomètre, un thermomètre, des piquages pour
prélèvement d’air ou analyse directe.
L’essai consiste à connecter l’extracteur d’air au puits de venting et à faire varier le
débit d’extraction tout en enregistrant la dépression au niveau du puits d’extraction et
des puits de suivi. Le test devra présenter au minimum 4 paliers et 3 mesures par
palier stabilisé. Ces données permettent de calculer la perméabilité intrinsèque du sol
(il existe pour ce faire différentes notes de calcul ou logiciels de modélisation).
Le plus souvent, on observe un pic de concentration en polluant dans l’air extrait peu
de temps après la mise en route de l’extraction. Ce pic de concentration est une
donnée intéressante car il est généralement représentatif de la concentration en
polluant dans l’air qui sera observée en début de traitement (pollution gazeuse à
l’équilibre avec le milieu sol).
Le calcul de la perméabilité intrinsèque peut être réalisé sur la base de cet essai.
Cette valeur peut être nécessaire pour certains modèles ou notes de calcul de
dimensionnement.
Figure II
Figure I
Logigrammes
Exemple de liste proposée par des laboratoires d’entreprises privées telles que SUEZ :
Exemple de liste proposée par des entreprises privées pour effectuer des essais in-situ avec
ou sans essais de laboratoires telles que SUEZ :
L’objectif de la classification des sols peut servir pour résoudre les problèmes de mécanique
des sols, il est important de caractériser un sol mais aussi de les classer, c’est à dire de les
mettre dans un groupe ayant des comportements similaires. Toute classification permet
d’identifier l’appartenance d’un sol à « une famille » et ainsi lui attribuer des caractéristiques
physiques, chimiques et mécaiques semblables. Cependant, il faut rester très vigilent et
s’assurer que ce matériau remplit suffisamment de critères pour le classer sans trop risque
d’erreurs.
Classer un sol consiste à l‘identifier grâce à des mesures quantitatives et à lui donner un nom
afin de le rattacher à un groupe de sols de caractéristiques semblables.
…/…
pour mieux le caractériser. Chaque type de classification a ses critères, ses objectifs et son
utilisation peut être plus ou moins pertinente en fonction des caractéristiques du projet.
Les renseignements ou critères nous permettrons d’identifier les sols et par conséquent de se
faire une idée sur leurs comportements. Il existe plusieurs systèmes de classification des sols.
Classification définie par le Laboratoire Central des Ponts et Chaussée (LCPC) ou celle de
l’U.S.C.S (Unified Soil Classification System) établie par Casagrande (souvent présentée sous
forme d’organigramme hiérarchisé) à partir des résultats fournis par
La granulométrie
La sédentométrie ou technique équivalente
Les caractéristiques de plasticité de la fraction fine (Atterberg)
Les sols sont désignés par le nom de la portion granulométrique prédominante qualifiée par
un adjectif relatif aux portions secondaires.
La classification des sols grenus se fait par la granulométrie, la sédimentométrie et les limites
d'Atterberg. Elle est précisée dans le tableau ci-après et la courbe annexée :
Grave
Gb
moins de 5%
Tous les diamètres de grains sont représentés,
propre bien graduée
aucun ne prédomine
ont un diamètre >2mm
Sans fines
Terres graveleuses
Grave
GRAVES
Sable
Sb
moins de 5%
Sans fines
Terressableuses
Sable
Sm
SABLES
Au dessus Argiles
Non organiques Ap
Etat hydrique peu
TERRES FINES ARGILE ET LIMON
inquiétant
Limons et sols
IL < 50%
LIMONS & ARGILES
Au dessus Argiles
de la ligne A
Non organiques At très plastiques
Limite de liquidité
Etat hydrique
inquiétant
IL > 50%
Limons
Non organiques Lt très plastiques
Au dessous
de la ligne A Argiles et limons
Matières organiques Ct organiques et très
plastiques
TOURBES
Il est à noter que le guide ne permet pas de résoudre la conception des ouvrages en terre
comme la stabilité des talus ou les dispositions constructives en matière de sols
compressibles.
Le guide intègre l’acquis des expériences engrangées sur les chantiers et des progrès des
techniques de réalisation.
Par rapport à l’ancienne recommandation RTR de 1976, les amélioration apportées par le
GTR sont :
o la distinction nette entre les sols meubles et les terrains rocheux ;
■ Remblai
Le GTR propose l’étude complémentaire de réutilisation de matériaux à caractère évolutif
(roches carbonatées, argileuses, certaines roches siliceuses comme les poudingues...). Il
recommande notamment l’application d’une nouvelle rubrique G concernant une action sur la
granularité (D max) selon différentes techniques.
■ Couche de forme
Le GTR développe notamment les possibilités d’amélioration des sols au niveau de la PST
(partie supérieure des terrassements) et au niveau de la couche de forme, ce qui induit la
valorisation, éventuellement par le traitement, de matériaux du site autrefois ignorés (sous-
produits industriels, matériaux rocheux).
Nota : Q /S est le ratio entre le volume de matériau compacté pendant un temps donné et la surface
balayée par le compacteur sur ce volume pendant le même temps. Ce ratio exprime aussi
l’épaisseur théorique compactée en une application de la charge du compacteur.
nature,
état
et comportement mécanique.
Elle est axée sur les conditions de réutilisation en remblai ou en couche de forme. De ce fait,
il est à noter qu’elle ne prend pas en compte tous les aspects des phases d’exécution du
terrassement, en particulier les difficultés éventuelles d’extraction.
P% à 80µm >12% P% à 80µm ≤12% P% à 80µm ≤12% 12% < P% à 80 µm ≤ 35% P% à 80 µm > 35%
VBS > 0.1 VBS ≤ 0.1 VBS ≤ 0.1 0.1 < VBS ≤ 0.2 VBS > 0.2 VBS ≤ 1.5 VBS > 1.5 VBS ≤ 2.5 12 < IP ≤ 25 25 < IP ≤ 40 IP > 40
ou
ES > 35 ES > 25 ES ≤ 35 ES ≤ 25 IP ≤ 12 IP > 12 IP ≤ 12 2.5 < VBS ≤ 6 6 < VBS ≤ 8 VBS > 8
Anguleux Roulés
< 60-80% ≥ 60-80% ≤ 70% > 70% ≤ 70% > 70% ≤ 70% > 70%
LA LA LA LA LA LA LA LA
Fraction 0/50 du 0/D et ou FS FS FS FS et ou FS FS et ou et ou
D21 D22 D11 D12 B11 B12 B31 B32 B21 B22 B41 B42 B51 B52
GEOTECHNIQUE & MECANIQUE DES SOLS
C2 C1 D3 D2 D1 B1 B3 B2 B4 B5 B6 A1 A2 A3 A4
C D B A
- 301
HGi 2022/23
-
GEOTECHNIQUE & MECANIQUE DES SOLS HGi 2022/23
Pour la classification des sols industriels, le fascicule 2 du GTR précise pour chaque catégorie
une partie des composants chimiques.
Le système de classification des sols AASHTO a été développé par l'American Association of
State Highway and Transportation Officials et est utilisé comme guide pour la classification
des sols et des mélanges sol-granulats à des fins de construction d'autoroutes.
Ce système de classification des sols AASHTO classe les sols en sept groupes principaux,
nommés A-1 à A-7, en fonction de leur qualité relative attendue pour les remblais routiers ,
les sous-niveaux , les sous-bases et les bases . Certains des groupes sont à leur tour divisés en
sous-groupes, tels que A-1-a et A-1-b . En outre, un indice de groupe peut être calculé pour
quantifier la performance attendue d'un sol au sein d'un groupe. Pour déterminer la
classification d'un sol dans le système AASHTO, il faut d'abord déterminer les proportions
relatives de gravier, de sable grossier, de sable fin et de limon-argile.
La taxonomie des sols de l'USDA fournit une classification des types de sols selon plusieurs
paramètres (le plus souvent leurs propriétés) et en plusieurs niveaux : Ordre, Sous-ordre,
Grand Groupe, Sous-groupe, Famille et Série. Il existe actuellement douze ordres de sols. Les
sous-ordres sont basés sur une propriété spécifique, telle que la température ou le régime
d'humidité (par exemple aquic pour humide). Les ordres de sol suivants se produisent au
Minnesota.
Mollisols : Sols avec une couche superficielle sombre et riche en humus contenant de
fortes concentrations de calcium et de magnésium, typiques des prairies.
Alfisols : Sols lessivés basiques ou légèrement acides avec un horizon B (sous-sol)
enrichi en argile, typiques des forêts de feuillus.
Entisols : Sols minéraux qui ne se sont pas encore différenciés en horizons distincts,
tels que les sols trouvés sur les plaines sablonneuses glaciaires.
Histosols : sols tourbeux, avec une couche superficielle profonde de matière purement
organique, comme les sols trouvés dans le centre-nord du Minnesota.
Inceptisols : sols à drainage libre dans lesquels la formation d'horizons distincts n'est
pas très avancée, comme certains sols trouvés dans le nord-est du Minnesota.
Vertisols : Sols argileux avec peu de matière organique qui se trouvent dans des
régions ayant des saisons humides et sèches distinctes, comme certains sols trouvés
dans le bassin de la vallée de la rivière Rouge.
Spodosols : sols acides caractérisés par une accumulation souterraine d'humus qui est
complexé avec de l'aluminium et du fer, comme certains sols trouvés dans le nord-est
du Minnesota.
Tous ces sols ont une texture très fine, l’ensemble représentatif des particules est inférieur à
2mm.
La répartition en argiles, limons et sables est basée sur le tableau ci-dessous. Elle a déjà été
présentée au paragraphe concernant la sédimentométrie qualitative (5.5.2.3) :
Les agronomes ont défini la notion de texture qui rend compte du comportement du sol au
champ. Ce comportement est fortement dépendant de la taille des constituants du sol. Ainsi,
les proportions respectives de sables, limons et argile permettent d'exprimer la texture du sol,
notion qualitative, par une grandeur mesurable. Ceci permet une classification
conventionnelle des sols à l'aide d'un triangle de texture comme celui défini par le GEPPA
(Groupe d'Etude des Problèmes de Pédologie Appliquée).
Il est ainsi possible de caractériser le comportement physique du sol. La texture est un des
paramètres qui détermine le potentiel de production d’un sol.
Les particules argileuses jouent un rôle important sur la capacité d'échange cationique (CEC)
assurant la mise en réserve de nombreux éléments nutritifs présents dans le sol et sur la
capacité de rétention de l'eau ou réserve utile.
Lors de la classification des sols selon Robertson (1986 ou 2010), il n'est pas nécessaire de
saisir des paramètres de sols, le programme effectue automatiquement cette étape en les
affectant au profil géologique. Pour cette raison, l'évaluation sur la base des tests CPT
effectués est très rapide et la plupart du temps claire.
La classification des sols selon Robertson (1986 ou 2010) est basée sur les valeurs mesurées
de la résistance à la pénétration q c, du frottement latéral local fs, et de la pression interstitielle
u2. Sur la base de la valeur corrigée de la résistance de pointe q t = qc + u2 * (1 - a), ou le
rapport en pourcentage qc /pa (où pa est la pression atmosphérique = 100 kPa (= 1 tsf)) et le
rapport de frottement Rf = fs /qt, le programme effectue automatiquement l'attribution du type
de comportement du sol (SBT - Soil Behavior Type) selon les graphiques suivants.
En 2009, Robertson intègre à son abaque l'indice Ic proposé par Jefferies et Been (2006),
permettant d'approcher les frontières des zones par des arcs de cercle. La frontière séparant le
comportement argileux du comportement sableux est ainsi donnée pour Ic =2,60.
Cette classification est liée à la pédologie qui depuis mon point de vue n’est pas assez prise en
compte dans les choix des solutions pour fonder un ouvrage sur un terrain dont son histoire va
suivre un autre parcours ...
C'est pourquoi la plupart des systèmes de classification proposés dans le monde présentent
une même structure en niveaux hiérarchisés, de type pyramidal. Les niveaux supérieurs sont
définis par les processus de pédogenèse offrant le caractère de généralité le plus large ; ils
constituent une classification générale des sols ayant valeur de référentiel pour une
communauté de pédologues. Les niveaux inférieurs rendent compte de particularités : ils
constituent l'essentiel des classifications dites régionales où une plus grande liberté est donnée
au pédologue pour adapter les critères de classement à une réalité locale.
Parmi les systèmes à vocation mondiale, il existe la typologie française avec, d'une part, la
classification française C.P.C.S. (Commission de pédologie et de cartographie des sols, 1967)
et, d'autre part, le Référentiel pédologique (1992-1995).
Cette classification était morphogénétique, c'est-à-dire que les critères de différenciation des
unités étaient surtout des caractères morphologiques, sélectionnés parce que exprimant des
processus ou des conditions de la pédogenèse.
Dès sa publication, volontairement effectuée sous une forme provisoire, elle était destinée à
être testée puis amendée. En effet, au cours des années, un certain nombre d'imperfections
apparurent qui rendirent nécessaire son amélioration. Entre temps, les conceptions de l'école
française évoluèrent tandis que les études pédologiques se multipliaient dans et hors de
l'Hexagone. À la suite de longs travaux préliminaires, une rénovation complète a débuté en
1987 et a abouti à la publication, en 1992, du nouveau système français : le Référentiel
pédologique.
• La phase solide (notée s) ou squelette solide est constituée par les grains minéraux de
l'agrégat ;
• La phase liquide (w), constituée par l'eau occupe les vides de l'agrégat. Si tous les
vides sont remplis par l'eau, le sol est dit saturé; sinon, il est partiellement saturé ;
• La phase gazeuse (a) : dans un sol partiellement saturé une partie des vides de
l'agrégat est remplie par du gaz, essentiellement de l'air.
Mais pour l’instant, ne sont pas pris en compte les autres composantes notamment d’origine
organique.
• l'indice des vides e = Vv / Vs, avec Vs le volume occupé par les grains solides.
La porosité n et l'indice des vides e définissent la proportion de vide contenue dans le sol
considéré.
Les résultats de l’analyse granulométrique révèlent des pourcentages de sable qui sont
supérieurs à 70% (voir tableau ci-dessus). D’après le triangle de texture (FAO) qui permet de
déterminer la classe texturale des sols, la zone d’étude présente des sols essentiellement
sableux.
– les sols ferrugineux tropicaux peu lessivés sur matériau à faible taux de granulométrie fine
appelés sols Dior-Deck ;
– les sols ferrugineux tropicaux faiblement lessivés sur matériau à très faible taux de
granulométrie fine appelés sols Dior.
Les sols sableux sont très perméables à l’eau et à l’air du fait de leur porosité texturale
(espacement entre les particules) entraînant une bonne aération, un bon drainage du sol et un
bon développement racinaire. Le lessivage des horizons supérieurs en est favorisé dans la
perspective de leur dessalement.
Toutefois, en saison sèche, ces sols vont avoir tendance à sécher très rapidement d’où des
besoins assez importants en arrosage. Ils ont aussi la particularité de ne pas retenir facilement
les éléments fertilisants.
Les sols sableux ont une structure instable, de plus ils s’assèchent très rapidement ; raison
pour laquelle ils sont particulièrement sensibles à l’érosion éolienne.
Ces sols sont toutefois, moins exposés à l’érosion hydrique du fait de leur texture qui favorise
une importante infiltration ; ce qui limite le ruissellement des eaux.
Par ailleurs, leur texture favorise aussi les remontées capillaires à partir de la nappe salée, en
saison sèche si des mesures de protection ne sont pas prises (paillage du sol, labour post-
récolte).
Ces sols sableux présentent des variantes qui peuvent être déterminées à partir du pourcentage
moyen en éléments fins (argiles et limons) des horizons.
D’après la dénomination wolof, cette composition en Argile et Limon (A+L) présente les
variantes texturales locales ci-après :
Encadré 8 : La mesure du pH
La mesure du pH (potentiel hydrogène) d’un sol permet de définir son état d’acidité ou
d’alcalinité (ou statut acido-basique). Pour la plupart des sols on note des valeurs comprises
entre 4 et 8,5 (tableau 22).
Ces variations qui peuvent atteindre et parfois dépasser un (01) point de pH s’expliquent
notamment par :
Remarque : la valeur du pH souhaitable pour un sol donné est d’abord fonction des cultures
que l’on veut pratiquer, certaines plantes sont plus exigeantes que d’autres.
L’acidité d’un sol influence la nutrition minérale des plantes et donc leur bon développement.
En milieu très acide, certains éléments chimiques deviennent toxiques grâce à une
augmentation de leur solubilisation. C’est le cas de l’aluminium par exemple qui se trouve
sous une forme qui bloque le métabolisme de la plante et la fait dépérir. Le fer, le zinc et le
manganèse peuvent aussi être en excès dans un sol très acide.
La vie du sol est également ralentie (sol acide) par suite d’une faible activité biologique
(minéralisation, dégradation de la matière organique, nitrification…) due à un mauvais
développement des bactéries.
Cette faiblesse de l’activité biologique entraine alors une augmentation du taux de matière
organique due à la très lente décomposition de cette dernière et aussi une pénurie de
nutriments absorbables par les plantes du fait de la minéralisation qui est limitée. Enfin, la
nutrition se fait mal : le pH perturbe l’équilibre électrochimique et empêche l’absorption des
éléments nutritifs par la plante.
Dans ces types de sol l’efficacité des engrais est alors réduite puisque les éléments apportés
restent bloqués dans le sol. Peu d’éléments minéraux sont donc recyclés et absorbés par les
racines.
Les sols neutres sont considérés comme étant de bonnes terres de jardin, la plupart des plantes
s’acclimatent bien dans ces types de sol.
Les pH des sols à réaction alcaline sont souvent des sols calcaires, ou dont le complexe
absorbant est saturé par des ions sodium. Un sol alcalin peut entraîner une solubilisation
incomplète de certains éléments comme le fer et le manganèse et entrainer, par exemple, une
chlorose ferrique.
– au niveau des sols Dior (01 SIB ; 7ND et18 KTO), des horizons non salés par suite du fait
de leurs faibles valeurs de CE qui sont inférieures à 500μS/cm. Sur ces sols, la salinité est
négligeable et n’aura aucun effet sur le rendement des cultures.
– au niveau des tannes herbacés 12 ND, l’horizon 0-15 est non salé par contre ceux de 15-80
et 80-120 sont salés.
– au niveau des sols de la vallée de Koutango (20 KTO) les horizons superficiels (0-20 cm)
sont extrêmement salés alors que ceux qui sont plus en profondeur de 20-80 et 80-120 sont
très salés. On constate ici une variabilité de la salinité en allant en profondeur.
– au niveau des sols Dior: zone de Sassara (14 SA) on note une salinité extrême au niveau des
couches superficielles et cette dernière passe de très salé à salé avec les couches les plus
profondes. Ici la salinité diminue avec la profondeur.
La conductivité électrique des sols détermine leur degré de salinité. Cette salinité se traduit
par un comportement différent des cultures vis-à-vis des classes de salinité. L’échelle de
Durand J.H. (tableau 23) a été utilisée pour indiquer la classe de salinité des sols sur extrait
1/5 et l’effet sur le rendement des cultures.
Tableau 23 : Classe de la qualité des sols selon l’échelle de Durand J.H. (1983)
Pour la plupart de ces unités, la fertilité chimique potentielle a été caractérisée en fonction
principalement de la teneur en matière organique des horizons superficiels.
Les résultats obtenus après analyse des échantillons de sol montrent des valeurs de C/N qui
sont inférieures à 10. En se référant à la classification du projet PNUD/FAO Gui 72/004 (voir
encadré ci-dessous), nous pouvons dire que la matière organique évolue de façon satisfaisante
dans ces sols.
Cependant, cela illustre plus la faiblesse de la teneur en matière organique des sols étudiés.
Remarque : Les valeurs élevées sont à relier avec les conditions d’évolution défavorables
(acidité, défaut d’aération). D’après Dabin B., une bonne teneur en matière organique dans un
sol sableux doit être supérieure à 11 %.
Pour calculer la teneur en matière organique du sol (MO %, ou g/100g de sol sec), la teneur
en carbone du sol (C %) est multipliée par un coefficient de valeur 1,72. Cette valeur
correspond à la proportion moyenne de carbone dans la matière organique du sol (cette
proportion doit être 58%).
Nous avons constaté que les pourcentages de matière organique obtenus (annexe 1), après
application de cette formule sont inférieurs à 2% pour les échantillons qui ont fait l’objet
d’analyses.
En conclusion, bien que l’évolution de la matière organique dans ces sols soit jugée
satisfaisante, il faut cependant signaler que sa teneur reste insuffisante.
Les matières organiques jouent un rôle important dans le fonctionnement global du sol, au
travers de ses composantes qui définissent la notion de fertilité. Elles sont essentiellement
décrites par les teneurs en Carbone et en Azote. Les matières organiques jouent un rôle
physique, biologique et chimique au niveau des sols. L’évolution de la matière organique
incorporée au sol s’accompagne d’une diminution progressive du rapport C/N jusqu’à des
valeurs de 10 environ.
C/N : le rapport carbone/azote du sol est un indicateur du plus ou moins bon fonctionnement
du sol. La classification des rapports C/N dans les sols est définie dans le projet PNUD/FAO
Gui 72/004 comme suit :
HG : Hors gamme
L’azote est aussi un élément important de la fertilité des sols. En effet, il est indispensable
pour la plante et il constitue un des facteurs essentiels du rendement.
Dans le sol l’azote qui est principalement sous forme organique, se minéralise sous l’action
des microorganismes. Cette minéralisation est très liée aux conditions du milieu : température,
humidité, aération, pH.
Ainsi la fertilité des sols en azote peut être déterminée à partir d’un abaque proposé par Dabin
B. (tableau 25 ci-dessous) qui est fonction de la teneur en azote total et du pH qui propose 5
échelles de fertilité (1 à 5).
Page suivante : 4.4. Répartition spatiale de la dégradation sur les unités de sol en présence
Limites d'Atterberg : l’état des limons et des argiles varie de la solidité à la liquidité
relatives quand la teneur en eau augmente ; la carte de Casagrande permet de caractériser la
plasticité d’un sol et de le désigner selon sa composition ;
la limite de liquidité est la valeur de la teneur en eau du passage de l'état plastique à l'état
« liquide » ;
Paramètres mécaniques
Les paramètres mécaniques sont les variables des formules de calcul de stabilité des talus,
fondations... Ils sont spécifiques d’une théorie, d’une méthode de calcul et d’un essai
(matériel et processus), de sorte qu’il n’est pas possible d’établir leurs corrélations
numériques pour un même sol. On les mesure spécifiquement sur échantillons dits « intacts » ;
ils ne le sont jamais.
Analyse granulométrique :
Limites d'Atterberg : Cet essai permet de prévoir le comportement des sols pendant les
opérations de terrassement, en particulier sous l'action des variations de teneur en eau. Il
consiste à faire varier la teneur en eau d'une fraction de sol en observant sa consistance. Il
existe deux limites dites d'Atterberg : la limite de liquidité et la limite de plasticité.
wl : c'est la limite de liquidité qui caractérise la transition entre un état liquide et un
état plastique.
wp : c'est la limite de plasticité qui caractérise la transition entre un état plastique et un
état solide.
Indice de plasticité = Ip= wl -wp
Indice de consistance = Ic = (wl - w) / Ip
Les liaisons électriques étant très fortes, les couches adsorbées ont des propriétés semi-
solides; elles ne peuvent être détruites qu'en laboratoire par dessiccation totale de
l'échantillon.
L' essai au cisaillement est une méthode de mesure de la résistance au cisaillement non drainé
d'un sol cohésif. Le test est effectué avec un équipement composé d'une tige avec des aubes
montées dessus qui est insérée dans le sol et tournée. Une jauge sur le dessus de la tige mesure
le couple nécessaire pour provoquer la rupture du sol et fournit une conversion en résistance
au cisaillement. L'équipement est utilisé depuis au moins 1948. L'équipement est également
utilisé depuis au moins 1967 pour évaluer la résistance au cisaillement des paquets de neige
risquant de former une avalanche de plaque .
Équipement utiliséÉditer
L'aube de cisaillement se compose d'une tige droite avec quatre aubes à une extrémité,
disposées selon un motif cruciforme, et d'une poignée/jauge de couple combinée. La tige est
insérée dans le sol à une profondeur de 500 mm et tournée à une vitesse comprise entre 6 et
12 degrés par minute. Une fois que le sol échoue en cisaillement, la jauge indique le couple
maximal appliqué. La jauge est marquée d'une échelle qui convertit le couple en une
résistance au cisaillement (mesurée en kiloNewtons par mètre carré). Il existe deux échelles à
utiliser avec deux tailles d'aubes différentes - des aubes de 150 sur 75 millimètres (5,9 po ×
3,0 po) sont utilisées pour les sols avec des résistances au cisaillement allant jusqu'à 50 kN/m
2 et 100 sur 50 millimètres (3,9 po × 2,0 po) aubes pour des sols plus solides. Au Royaume-
Uni, la méthodologie est régie par la norme britannique 1377 (Méthodes d'essai pour les sols à
usage de génie civil ).
La palette de cisaillement est un équipement simple et portable. L'essai convient aux sols
argileux classés comme mous à fermes. En remoulant l'échantillon et en le testant à nouveau,
une indication de la sensibilité de l'argile peut également être trouvée. Le test a également été
utilisé pour mesurer la résistance au cisaillement des mélanges de mortier, où il a été
démontré qu'il était en corrélation avec la valeur d'affaissement. L'équipement est également
utilisé depuis au moins 1967 pour évaluer la résistance au cisaillement des paquets de neige
risquant de former une avalanche de plaque .
Histoire et rechercheÉditer
Le test a été mis au point par L Carlson et AW Skempton en 1948. Depuis lors, il y a eu des
différends sur son exactitude. Carlson et Skempton pensaient qu'il fournissait une valeur
supérieure à celle indiquée par les essais de compression non confinés et en fait concordait
mieux avec les valeurs attendues dans la théorie géotechnique. Cependant, des recherches de
1973 ont affirmé que le test fournissait en fait une sous-estimation de la résistance au
cisaillement par rapport aux tests de compression où une bonne qualité d'échantillon pouvait
être obtenue. L'écart a été attribué à la perturbation de l'échantillon causée par l'insertion de
l'aube de cisaillement. [1