Todo Bio Ex 3 PDF
Todo Bio Ex 3 PDF
Todo Bio Ex 3 PDF
El proceso era realizado directamente por expertos humanos. Tenían que confiar en su experiencia
auditiva, visual y heurística. La precisión y la confiabilidad de tales procesos de diagnóstico
"manual" eran limitados por una serie de factores, como limitaciones humanas para extraer y
detectar ciertas características de las señales.
2. ¿Qué es la imagenología?
Es el estudio de las imágenes médicas que comprende la realización de todo tipo de exámenes
diagnósticos y terapéuticos en los cuales se utilizan equipos que reproducen imágenes del
organismo.
- Señales de Bioimpedancia
- Señales Bioacústicas
- Señales Biomagnéticas
- Señales Biomecánicas
- Señales Bioquímicas
- Señales Bioópticas
- Señales Bioeléctricas
Frontal
- Derivaciones bipolares (I, II, III): registran las diferencias de potencial entre dos puntos del
cuerpo
- Derivaciones monopolares (aVR, aVL, aVF): registran diferencias de potencial real neto.
Horizontal
- Derivaciones precordiales monopolares (V1, V2, V3, V4, V5, V6): se colocan directamente
sobre el pecho detectan directamente las actividades eléctricas del corazón en el plano
horizontal.
- Electrocardiograma.
- Vectorcardiograma.
- Magnetocardiograma.
Se basa en un método grafico que registra los potenciales eléctricos del corazón en un plano
tridimensional durante el ciclo cardiaco. las figuras que se obtienen son tres anillos irregulares en
cada plano, que corresponden a las, ondas P, QRS y T.
Consiste en una técnica para medir los campos magnéticos producidos por la actividad eléctrica en
el corazón. Estas señales magnéticas son mediciones basadas en vectores, a diferencia de las
mediciones escalares de un ECG.
- La temporización
- Intensidad relativa
- Frecuencia, calidad
- Tono
- Timbre y localización precisa de las diferentes componentes del sonido cardíaco, de una
forma objetiva y repetible.
14. En el TAC ¿Cómo se generan las imágenes y cómo es el proceso para obtener una mayor
resolución?
Reconstruye una imagen a partir de los valores de atenuación de distintos haces de rayos X
medidos desde múltiples ángulos. Se logra una mayor resolución que con los convencionales.
- Adheridos.
- De contacto
- De aguja
- Quirúrgicos
17. Según el registro de actividad bioeléctrica cerebral y su forma de captación ¿Cuáles son
y qué tipo de electrodos se utiliza?
18. Según las ondas cerebrales ¿Cuáles son sus características y en cuantos se clasifican
según su ritmo?
- Estas ondas poseen amplitudes que van desde los 10 mV en registros sobre el córtex, a 100
µV en la superficie del cuero cabelludo. Las frecuencias de estas ondas se mueven entre
0,5 y 100 Hz.
- Se clasifican en ritmos de α, β, θ y δ.
20. ¿Cuáles son las ventajas y desventajas de las “Imágenes de Resonancia Magnética”
(MRI)?
Las ventajas:
- Proporcionan imágenes de alto contraste para diferenciar tejidos blandos (órganos,
tumores)
- Su naturaleza 3D permite estudios anatómicos y funcionales. Posibilidad de caracterizar
tejidos por su especificidad química.
Desventaja:
- Tiempo de adquisición de imágenes es muy grande.
- Abdominal
- Pelviana
- Partes pequeñas
- Musculo esquelético
- Próstata transrectal
- Endorectal
Sirve para detectar la enfermedad coronaria, que se origina por el estrechamiento de las arterias
que irrigan el corazón y que puede producir dolor al echo (angina), o un infarto al miocardio.
- Cintigrama óseo
- Cintigrama miocardio de perfusión
- Linfocitigrafía de ganglio centinela
- Densitometría ósea
- Cintigrama renal
Los esfuerzos están dirigidos a realizar los mejores estudios radiográficos de la forma menos
molesta para el niño y en un ambiente grato, familiar y acogedor.
La Resonancia Magnética (RM) es una herramienta de diagnóstico por imagen que se basa en las
ondas de radiofrecuencia emitidas por los protones del tejido examinado, luego de ser expuestos a
un campo magnético.
El vóxel (del inglés volumetric pixel) es la unidad cúbica que compone un objeto tridimensional.
Constituye la unidad mínima procesable de una matriz tridimensional y es, por tanto, el
equivalente del píxel en un objeto 2D.
Para cada exploración del tándem fuente-detector se desplaza lineal y paralelamente un número
de intervalos lineales predefinidos.
- Tiempo de cálculo.
- Posibilidad de no convergencia cuando existe ruido en la imagen.
Consiste en distribuir idénticamente entre todos los elementos de volumen que intervienen en la
trayectoria en la que se efectúa el cálculo, el error definido por la diferencia entre los valores
numéricos de la proyección medida y la calculada.
- La fuente de rayos-X
- El detector o arreglo de detectores
En nuestros días se pueden considerar 5 generaciones: 1era, 2da, 3era, 4ta y 5ta generación.
Se aumenta el número de detectores hasta una cifra comprendida entre 200 y 500, colocados en
forma de arco y una sola fuente con un haz de abanico. Se reduce el tiempo de exploración a unos
10 segundos. y aumenta la resolución a 250 x 250 pixeles.
QUINTO CAPÍTULO:
Diagnóstico.
Monitorización de terapias.
Planificación quirúrgica.
2 PERSPECTIVA HISTÓRICA
1
3 SEÑALES BIOMÉDICAS
Una señal es un fenómeno que transporta información. Las señales biomédicas se utilizan
fundamentalmente para extraer información del sistema biológico bajo estudio.
El proceso completo de extracción de la información puede ser tan sencillo como la estimación
de la frecuencia cardiaca media de un paciente a través del pulso o tan complejo como el
análisis de la estructura interna de los tejidos blandos mediante una sofisticada maquina de
tomografía computada.
Para un análisis estructurado se puede emplear la clasificación siguiente.
Varios órganos como el cerebro, el corazón y los pulmones, producen campos magnéticos
extremadamente débiles. La medición de tales campos provee información no incluida en
otras bioseñales. Debido al bajo de nivel de campos magnéticos que se tiene que medir,
deben tomarse precauciones extremas en el diseño del sistema de adquisición de de estas
señales.
Este término incluye a todas las señales utilizadas en los campos de la biomedicina que se
originan de alguna función mecánica del sistema biológico. Estas señales incluyen
aquellas producidas por la locomoción y el desplazamiento, las señales de flujo y presión,
y otras. La medición requiere una gran variedad de transductores, no siempre sencillos y
económicos, el fenómeno mecánico no se propaga, como lo hacen los campos magnéticos
y eléctricos y las ondas acústicas, por lo tanto, la medición se tiene que realizar
usualmente en el sitio exacto donde se origina. Esto a menudo complica la medición y la
fuerza a ser invasiva.
2
3.5 SEÑALES BIOQUÍMICAS
Las señales bioquímicas son el resultado de mediciones químicas de los tejidos vivos o de
muestras analizadas en el laboratorio clínico, la medición de concentración de iones dentro
de las vecindades de una célula, por medio de electrodos específicos para cada Ion es un
ejemplo de este tipo de señal. La presión parcial de oxigeno y del dióxido de carbono en la
sangre o en el sistema respiratorio son otros ejemplos. Las señales bioquímicas son a
menudo de muy baja frecuencia.
Estas señales so el resultado de funciones ópticas de los sistemas biológicos que ocurren
naturalmente o inducidas para la medición. La oxigenación sanguínea puede estimarse
midiendo la luz transmitida y reflejada por los tejidos a distintas longitudes de onda. Puede
obtenerse información importante acerca del feto midiendo la florescencia del líquido
amitótico. El desarrollo de la tecnología de fibra óptica ha abierto un amplio espectro de
estudios de señales bioopticas.
El complejo QRS puede tener distintas morfologías, con deflexión negativa inicial o sin ella. Si
esta existe, se llama onda Q. La onda R es la deflexión positiva y la onda S es la deflexión
negativa que sigue a una onda R. Si hay varias ondas R o S, se numeran de la siguiente forma:
R, R', R" y S, S', S". El voltaje de las ondas se mide en sentido horizontal. En un complejo QRS
las ondas de buen voltaje se señalan con una letra mayúscula y las más pequeñas con una
letra minúscula. El complejo exclusivamente negativo se denomina QS.
3
Los intervalos y segmentos más importantes son:
Intervalo PR. Es la distancia comprendida desde el inicio de la onda P hasta el inicio del
complejo QRS. También se denomina intervalo PQ.
Segmento ST. Abarca desde el final del QRS hasta el inicio de la onda T.
Intervalo QT. Comprende desde el principio del QRS (Q o R) hasta el final de la onda
T. La repolarización auricular (ST-Ta) queda enmascarada, en condiciones normales, por las
potentes fuerzas de despolarización ventricular
Einthoven consideró estas tres derivaciones bipolares (I, II y III) como un circuito cerrado,
y la suma total de las diferencias tensionales entre distintos puntos que constituyen un
circuito cerrado.
Con el fin de entender mejor la morfología del ECG en las derivaciones bipolares, I, Il y
III,
Einthoven tomó la segunda derivación con una polaridad invertida, por lo que utilizó: (VF-
VR) en lugar de -(VR-VF), con lo que: (VF-VL)+ (VF-VL)=-(VR-VF) pasa a ser
(VL-VR)+ (VF-VL)= (VF-VR); en consecuencia, y como VL-VR=I, VF-VR=II y VF-VL=III,
I+III=II. Esta relación se conoce como la ley de Einthoven.
Esta ley, que debe cumplirse siempre en electrocardiografía, nos permite asegurar que el
ECG está correctamente registrado (cables bien colocados) y rotulado.
Sobre la base de la ley enunciada, Einthoven, partiendo del principio de que era igual
colocar los electrodos en los brazos o en las piernas, que en las raíces de los miembros
(hombro derecho, hombro izquierdo y pubis) y considerando que el tronco humano es
una esfera conductora homogénea que tiene en su centro el corazón, describió su
triángulo, cuyas características se ilustran en la fig
4
4.2.3 Derivaciones monopolares de las extremidades.
5
4.3 RUTINA DE INTERPRETACIÓN.
4.4.2 Electrocardiograma.
El electrocardiograma (ECG) es el registro de la actividad eléctrica del corazón medida
normalmente entre dos puntos de la superficie del cuerpo. Al ser la actividad de las
cámaras cardíacas rítmica y totalmente coordinada, la forma de onda obtenida es
regular. En ella se reconocen fácilmente diversas ondas cuyas amplitudes, duraciones
y morfología están bien definidas.
El equipo que capta la señal del ECG se denomina electrocardiógrafo. La corriente
eléctrica generada por el corazón se conduce a través de cables al aparato de registro,
que consta fundamentalmente de un amplificador, que magnifica las señales eléctricas,
y de un galvanómetro, que mueve una aguja inscriptora, la cual se desplaza más o
menos, según la magnitud del potencial eléctrico que genera el paciente (figura 35).
Este potencial eléctrico tiene una expresión vectorial. La aguja inscribe una deflexión
positiva o negativa según que, en una derivación dada, la cabeza del vector (que
corresponde a la carga positiva del dipolo) este enfrentada con el electrodo explorador,
independientemente de que la fuerza eléctrica se acerque o se aleje del polo positivo
de dicha derivación.
6
El ECG se emplea como señal para el diagnóstico (no solamente cardíaco), como
referencia
temporal en el registro de otras señales (por ejemplo, en fonocardiografía y para
monitorización). En los dos primeros casos, el instrumento de medida debe poder
obtener un registro gráfico, mientras que en el tercero basta la presentación continua,
normalmente en la pantalla de un tubo de rayos catódicos.
Los parámetros considerados para analizar la señal, normalmente de forma empírica,
son el ritmo y su uniformidad, y la presencia, amplitud, forma y separación de las
distintas ondas.
Las amplitudes están asociadas directamente al estado de las células del miocardio,
mientras que los tiempos vienen condicionados por las células nerviosas. Es, pues,
muy importante no alterar los parámetros durante la medida ya que, de lo contrario, se
pueden producir errores de interpretación.
La experiencia adquirida en el registro del ECG ha permitido establecer unos requisitos
mínimos que deben cumplir los electrocardiógrafos. De entre los recomendados por la
American Heart Association se pueden señalar entre otros: impedancia de entrada
mayor de 5M ; corriente a través del paciente inferior a 1 A; resistencia del terminal
central mayor de3,3 M ; ganancia con tres valores fijos en 5, 10 y 20 mm/mV
(equivalen a ganancias en tensión de 1000 o superiores); respuesta frecuencial plana,
dentro de una banda de +0,5 dB, de 0,14 Hz a 25 Hz, y con atenuación inferior a 3 dB
a 100 Hz; velocidad del papel 25 mm/s y adicional de 50 mm/s. Se recomienda también
que se pueda aplicar una señal de 1 mV a la entrada para calibrar la ganancia.
Para el registro de las doce derivaciones habituales, se mide una derivación cada vez,
o bien, se hace de tres en tres si se dispone de este número de canales de registro. El
equipo incorpora para ello un conmutador de selección. La conexión al paciente se
hace mediante 5 o 10 hilos de color distinto, conectado cada uno a un electrodo: tres
para las derivaciones a las extremidades, uno o seis para las derivaciones
precordiales, y otro para un electrodo de referencia, conectado en la pierna derecha u
otro punto del cuerpo.
Este aislamiento se consigue alimentando dichos circuitos con una tensión obtenida
mediante un transformador de seguridad. A la vez, las órdenes que se dan desde el
panel frontal y las señales a registrar no deben establecer una continuidad 6hmica
entre la parte inmediata al paciente y el resto del equipo. Por ello se acoplan magnética
u ópticamente, y deben sufrir un proceso de modulación, y la consiguiente de
modulación, si su frecuencia, o amplitud, no es adecuada para la técnica de aislamiento
empleada. Las limitaciones del ECG clásico (en reposo) en cuanto a la capacidad de
detectar ciertas cardiopatías o diferenciarlas de otras, han llevado al planteamiento de
métodos alternativos. Uno muy extendido es la electrocardiografía durante ejercicio
(electrocardiograma de esfuerzo). En ella se observa y se registra el ECG mientras el
paciente camina sobre una cinta móvil o pedalea en un ergómetro de bicicleta.
7
4.4.3 Vectorcardiograma.
Otra técnica es la vectocardiografía. Cada derivación del ECG ofrece información escalar
sobre el vector cardíaco. A partir del conjunto de todas las derivaciones se podría
reconstruir el vector (magnitud y dirección), pero no es una labor fácil, ni se hace
normalmente. Ha despertado más interés, desde hace años, la reconstrucción del vector
a partir de sus proyecciones en tres direcciones ortogonales X, Y, Z. En la práctica, estas
derivaciones no son posibles y se emplea el sistema definido por Frank, que incluye una
red de resistencias ponderadas de acuerdo con la geometría y conductividades del torso,
y determinadas experimentalmente.
La información que se presenta es la proyección del extremo del vector cardíaco en los
planos sagital, frontal y transversal, y constituye el denominado vectocardiograma. A lo
largo del ciclo cardíaco, las figuras que se obtienen son tres anillos irregulares en cada
plano, que corresponden a las, ondas P, QRS y T. Estas figuras se presentan en la
pantalla de un tubo de rayos catódicos. Dado que el equipo de medida suele incluir un
ordenador, se puede obtener un registro gráfico permanente en un terminal periférico
adecuado.
Holter.
Equipos de registro del ECG para un posterior análisis del mismo. El objetivo de esta
medida es monitorizar al paciente durante largos periodos de tiempo y posteriormente
analizar estos resultados. Figura - Holter.
8
9
5 PHONOCARDIOGRAPHY
The figure below shows an artefact free acoustic cardiac waveform. The two adjacent wavetrain
pulses corresponding to a single heartbeat is evident in the middle of the plot.
The following measurements and( observations were madle (Fig. 1): (1) the interval from
the beginning of the Q wave of the electrocardliogram to the first high frequency component
of the prosthetic closing sound (Q-CC interval); (2) the interval from the first high frequency
component of the second heart sound (A2) to the first high frequency component of the
prosthetic opening sound (A2.-OC interval); (3) disc excursion, measured as the maximum
distance between the ultrasound tracing from one of the anterior struts and the tracing from
the anterior (apical) surface of the disc during systole; (4) disc velocities, calculated bv
drawing a tangent along the echo trace from the disc during opening and closure of the
valve; (5) the presence or absence of alterations in the motion pattern of the prosthesis. In
order to provide for comparison of our results with values reported for other caged disc
valves, every effort was made to conform to measurement techniques previously described.
Echocardiographic measurements were taken only from those portions of the records in
which the prosthesis was visualized with the transducer positioned at the apex and with the
ultrasound beam directed superiorly and medially. With this projection the beam is parallel
to the major direction of motion of the disc. All values were expressed as the mean of five
cardiac cycles. In patients with irregular R-R intervals, the measurements were
standardized by using cycle lengths of approximately 0.8 sec. Those cycles in which the
echocardiograms demonstrated closure of the disc prior to the onset of ventricular systole
were excluded from quantitative analysis.
10
5.2 Results
Technically adequate ultrasonic recordings of the prosthetic mitral valve, consisting of cage,
disc and sewing ring motion, were obtained in all 19 cases (Fig. 1). Clinical data along with
the results for each patient are presented in Table I.
11
The prosthetic closing sound was recorded as several high frequency vibrations that occurred
with completion of prosthetic valve closure on the echocardiogram. The magnitude of the
closing click was greater than that of the prosthetic opening click in all but one instance (Case
11). In four patients (Cases 2, 7, 10 and 15) a small, single sound preceding the larger
closing click by 10 to 20 msec. was occasionally recorded. Simultaneous echocardiography
showed that this discrete sound occurred at onset of valve closure even though the onset of
closure was not premature. Because of its infrequency, this sound was not used to calculate the
Q-CC. interval. The mean Q-CC interval was 71 2 (SEM) msec (range, 48 to 84 msec).
This interval showed no significant correlation with prosthetic valve size (r = 0.45).
The prosthetic opening click occurred at peak opening of the disc. No phonocardiographic
events associated with the onset of opening were noted. The A2-OC interval ranged between
54 and 1 17 msec with a mean of 83 + 4 msec. Maximum beat to beat variation of this interval
was 25 msec for patients with sinus rhythm1 and 30 msec for those with atrial fibrillation
or flutter. There was slight correlation (r = 0.65) between the A2-OC interval and prosthetic valve
size.
The time trace below (top trace) contains an, under-sampled, acoustic cardiac waveform
collected from a young baby. Below this, the corresponding signal transform is shown. The
bottom trace contains the transform coefficient values across the plot corresponding to the 40Hz
band-pass frequency centre of the features. Alternate large and small peaks are evident in this
figure and other features related to artefacts an noise have been suppressed. These alternate
large and small peaks correspond to the dominant double pulsing signature of the acoustic
cardiac waveform observed in figure 1. We can see very clearly from the figure that the beat
frequency is approximately 140 beats per minute which is as we would expect from a young
baby. As well as its de-noising strengths an additional feature of this technique is its ability cope
12
with the under-sampled trace, as below, due to the method's ability to identify the wave train
envelopes.
By filtering the signal in this way, useful clinical information can be obtained from the heart
signal aiding diagnosis.
ASEPTIC: Processing algorithms for the PCG signal: The analysis of PCG signal has been
implemented using a hierarchical structure based on four abstraction levels (Envelopes, Events,
Sounds, and Diagnosis), and several tasks specialists in each level. The modularity of this
structure allows a high degree of independence in the implementation of the processing blocks,
and it establishes a growing up abstraction level as we climb through the hierarchy. This
13
approach tries to mimic the interpretation process of the cardiac auscultation carried out by the
physician, which uses also a hierarchical approach to search and characterize the cardiac
events [14]. The advantage of this method is that it allows to the search of events, even inside
other events, following a knowledge-based progressive depth approach.
Continuous monitoring techniques for PCG: Due to slow evolution characteristics of this signal,
it is enough to perform a periodical analysis of PCG segments rather than a continuous
monitoring, which makes easier the implementation of specific purpose modules on
reconfigurable hardware circuits. An enceinte method for the compression of PCG based on the
discrete wavelet transform (DWT) [12, 13] has also been developed. This method improves the
storage and transmission of PCG, and it has achieved higher compression rates than the main
audio compression methods used nowadays, for a given quality level.
6 ELECTROENCEFALOGRAFÍA
The proposed method of conductivity estimation is designed to be closely integrated with dense-
array EEG data acquisition. Electric current can easily be delivered through any pair of
electrodes in the GSN. The Net Amps system is already capable of injecting small currents into
the scalp, and such a method is already being used at the beginning of data acquisition to
estimate scalp-electrode impedance. By injecting sinusoidal current and averaging over many
14
cycles, the background EEG can be reduced to negligible error. We discuss other noise sources
below.
Data preprocessing
Continuous EEG of 128 electrode sites recorded for the complete duration of the task performance is
first segmented according to the stimulus. Usually a prestimulus baseline of about 100 ms is obtained
and this is followed by a window including the full single trial task performance, which in our studies
so far may vary from 500 ms to 4250 ms. The segmented data are then baseline corrected and filtered,
if filtering is desired (more often than not). Next the data are averaged. In this process we also clean
the data from blink, eye movement, and muscle artefacts setting automatic rejection values for sweeps
unacceptable for averaging. After averaging the ERP appears even though single trial ERP is not
uncommon to see in individual cases (see Fig. 1.b. for an example of a cognitive ERP). Grand average
wave forms describing all subjects’ data or averages picking only specific parts of tasks can be then
created
.
15
6.2 Tipos de electrodos:
De aguja. Su uso es muy limitado; solo se emplea en recién nacidos y en UCI. Pueden ser
desechables (de un solo uso) o de uso múltiple. En este caso, su esterilización y
manipulación deben ser muy cuidadosos. Todos los electrodos descritos hasta aquí
registran solamente la convexidad superior de la corteza. Para el estudio de la cara basal
del encéfalo se utilizan electrodos especiales como el faríngeo, el esfenoidal, y el
timpánico.
Quirúrgicos. Se utilizan durante el acto quirúrgico y son manipulados exclusivamente por
el neurocirujano. Pueden ser durables, corticales o intracerebrales.
Para proceder a registrar el EEG se parte de una serie de electrodos situados sobre la
superficie del cuero cabelludo en situaciones precisas, tal como ya se ha explicado,
determinadas según el sistema internacional diez-veinte. Cada electrodo es un punto de
16
registro. Sin embargo, para poder realizar este registro es preciso disponer de dos
terminales.
Por esto habrá que seleccionar cuáles de los electrodos deben ser la fuente de señal
registrada en el electroencefalógrafo, dependiendo del número de canales disponibles y del
propósito específico del registro a realizar. En este aspecto, la primera decisión que se
deberá tomar será el seleccionar entre Registros Monopolares y Registros Bipolares.
En los Registros Monopolares o Referenciales (fig. 17) se toma la señal de cada uno de los
electrodos independientemente de la de los demás. En esta situación el electrodo de
registro de llama electrodo activo y el segundo cable de entrada al equipo se toma de un
electrodo llamado de Referencia.
Teóricamente este electrodo debe estar situado a potencial cero, aunque esto en la
práctica real nunca hay seguridad de que sea posible de conseguir. Por esto se emplean
referencias aproximadas como son el uso de electrodos en el lóbulo de la oreja, en el
mentón o en el mastoides. Otra forma de conseguir un electrodo referencial consiste en
reunir todos los demás electrodos entre sí, con lo cual tendremos un punto cuyo potencial
será la suma de los potenciales de cada uno de ellos dependiendo del número de canales
disponibles.
Poseen amplitudes que van desde los 10 mV en registros sobre el córtex, a 100 µV
en la superficie del cuero cabelludo. Las frecuencias de estas ondas se mueven entre
0,5 y 100 Hz y dependen mucho del grado de actividad del córtex cerebral. La
mayoría de las veces estas ondas no poseen ninguna forma determinada, en algunas
son ritmos normales que suelen clasificarse en ritmos α, β, θ ψ δ. En otras poseen
características muy específicas de patologías cerebrales como la epilepsia
17
Las ondas α poseen frecuencias entre 8 y 13 Hz. Se registran en sujetos normales
despiertos, sin ninguna actividad y con los ojos cerrados, localizándose sobre todo
en la zona occipital; su amplitud está comprendida entre 20 y 200 µV.
Las ondas β poseen frecuencias entre 14 y 30 Hz, aunque pueden llegar hasta los 50
Hz; se registran fundamentalmente en las regiones parietal y frontal. Se dividen en
dos tipos fundamentales, de comportamiento muy distinto, β1 y β2. Las ondas β1,
tienen una frecuencia doble a las ondas β2 y se comportan de forma parecida a ellas.
Las ondas β2, aparecen cuando se activa intensamente el SNC o cuando el sujeto
está bajo tensión.
Las ondas θ poseen frecuencias entre 4 y 7 Hz y se presentan en la infancia aunque
también pueden presentarlas los adultos en períodos de stress emocional y
frustración. Se localizan en las zonas parietal y temporal.
Las ondas δ poseen frecuencias inferiores a 3,5 Hz y se presentan durante el sueño
profundo, en la infancia y en enfermedades orgánicas cerebrales graves.
Hemos visto cómo la actividad cerebral durante la vigilia modifica sustancialmente
el EEG.
Algo parecido ocurre durante el sueño, en el que tienen lugar de forma cíclica
cambios espectrales muy notables, pudiendo ser cualquier desviaci6n indicativa de
una patología cerebral. En la figura 22 se distinguen distintas fases del sueño que
corresponden sucesivamente a los estados de alerta o excitación, de relajación, de
somnolencia, de sueño y, finalmente, de sueño profundo. Obsérvese que la
frecuencia de las ondas del EEG va disminuyendo progresivamente, aunque pueden
aparecer ondas transitorias rápidas (puntas, ondas V y complejos K). Además del
EEG se suelen registrar conjuntamente otras variables
Fisiológicas como el EOG (electrooculograma), el ECG (electrocardiograma), el
EMG (electromiograma) y la frecuencia respiratoria, que ayudan a determinar la
profundidad del sueño del sujeto en observación. Así por ejemplo, el EOG permite
determinar las fases REM (rapid eye movement) del sueño, el EMG el grado de
relajación muscular, etc.
Por último señalaremos que las distintas fases del sueño se suelen repetir de forma
cíclica durante la noche. Uno de los usos fundamentales del EEG está en el
diagnóstico y localización de la epilepsia, que tiene su origen en una activación
excesiva de parte o de todo el SNC.
18
Existen tres grupos básicos de epilepsia: la epilepsia generalizada – que abarca todo el
cerebro
–, la parcial – que sólo lo hace en parte – y la de difícil clasificación – que no
corresponde a ninguno de los tipos anteriores.
Algunos ejemplos de crisis más frecuentes que presentan sujetos con epilepsia
generalizada son las crisis tónico- clónicas (grand mal), las crisis mioclónicas y las
crisis de ausencia. Las crisis tónico-clónicas parecen tener origen en la
hiperexcitabilidad o anormalidad de las neuronas del sistema de activaci6n reticular.
Las descargas se expanden por todo el sistema nervioso dando lugar a convulsiones
del cuerpo entero que duran desde algunos segundos hasta 3 o 4 minutos.
Después del ataque el sujeto puede permanecer inconsciente bastantes minutos (hasta
una hora). El EEG presenta, en la fase tónica, ondas de frecuencia igual a las ondas
α pero de mayor amplitud y registrables desde cualquier punto del córtex (figura 23b).
Durante las crisis mioclónicas el sujeto experimenta un ataque parecido al “gran mal”,
pero el proceso termina muy rápidamente sin que el sujeto pierda la conciencia ni cese
su actividad. En las crisis de ausencia el sujeto presenta de 5 a 20 segundos de
inconsciencia con contracciones musculares en la región de la cabeza, volviendo a
continuación a la actividad que estaba desarrollando antes del ataque. El EEG muestra
puntas y ondas características (figura 23a).
Las epilepsias parciales suelen ser causadas por lesiones cerebrales orgánicas focales
(tumores, traumatismos, tejido destiuido,...). Algunos ejemplos de crisis parciales son
las crisis con síntomas motores (posturales, jacksonianas, afásicas,...), con síntomas
sonatosensoriales (visuales, auditivos,...), con trastornos de la conciencia
(automatismos, crisis de angustia, de risa,...), etc. En la figura 23c se observa un
ejemplo gráfico de una crisis motriz: ondas rectangulares de frecuencia entre 2 y 4 Hz
con ondas superpuestas de 14 Hz.
19
20
7 TIPOS DE IMÁGENES MÉDICAS
Son una manifestación directa de la interacción de agluna forma de radiación con un tejido.
Radiología convencional (Rayos X). Se proyecta un haz de rayos X, a través del cuerpo
humano, sobre una película sensible a este tipo de radiación. La imagen obtenida es una
medida de la atenuación de los rayos X en el tejido.
Radiología Digital. Mismos principios que la convencional pero las imágenes se obtienen
directamente en formato digital.
21
7.3 Imágenes de resonancia magnética (MRI). Se basa en las propiedades de los
núcleos atómicos el cuerpo humano, que presentan un momento magnético que les hace
actuar como imanes. Si situamos a un paciente en un campo magnético intenso, estos
núcleos se alinearán en la dirección del campo, girando alrededor de esta dirección con
una frecuencia proporcional al tipo del núcleo y a la magnitud del campo. Si se aplica un
impulso de radio frecuencia con un ángulo determinado en relación al campo magnético
estacionario, aquellos núcleos con frecuencia de rotación igual al pulso de radio frecuencia
resonarán adsorbiendo energía. Si a continuación se anula el pulso, los núcleos volverán a
su estado original de alineación con el campo estático, emitiendo una señal de
radiofrecuencia cuya intensidad y duración dependen de la densidad y tipo de núcleo. La
medida de estos parámetros puede ser posteriormente procesada y utilizada para generar
imágenes que representan diferencias biológicas entre los tejidos.
Inconvenientes:
7.4 Imágenes 3D. Las imágenes producidas por TAC, MRI o PET son imágenes
bidimensionales de una sección de un volumen (cuerpo humano). Si adquirimos una
secuencia de cortes paralelos y suficientemente juntos se puede crear una imagen 3D
aplicando un algoritmo de reconstrucción adecuado.
Resolución de contraste: indica el número de bits por píxel o niveles de gris de una
imagen. Es una medida de la capacidad de distinguir pequeñas diferencias de
intensidad en la imagen y que esta relacionado con las diferencias en los parámetros
medidos para obtener la imagen.
8.1 ECOTOMOGRAFÍA
22
El ultrasonido no produce efectos dañinos en los pacientes ni en quienes operan los
equipos y con esta técnica es posible visualizar gran parte de las estructuras del
cuerpo, con limitación del hueso y del aire.
Los equipos son portátiles, por lo que pueden ser transportados con facilidad. Por sus
características, es una excelente técnica para guiar punciones y biopsias en forma
rápida y segura.
a) ABDOMINAL
Con la ecotomografía abdominal se puede estudiar el hígado, la vesícula biliar, los
riñones, el páncreas y el bazo. Además, es posible visualizar la aorta, el
retroperitoneo y algunos segmentos del tubo digestivo.
Indicaciones:
- Dolor abdominal
- Cólico biliar
- Cólico renal
- Ictericia
- Sospecha de apendicitis
b) PELVIANA
El examen pelviano en las mujeres muestra fundamentalmente el útero y los
ovarios, además de la vejiga. En los hombres el examen pelviano estudia la
próstata, las vesículas seminales y la vejiga.
Indicaciones:
- Dolor pelviano
- Sangramientos vaginales
- Trastornos hormonales
- Chequeo prostático
- Sangramientos urinarios
c) PARTES PEQUEÑAS
El examen de partes pequeñas con alta resolución es frecuentemente usado para
evaluar la glándula tiroides, glándulas paratiroides, glándulas salivales, testículos y
otras estructuras situadas superficialmente en el cuerpo.
Indicaciones:
23
- Trastornos endocrinológicos
- Bocio
- Hipertiroidismo
- Hipotiroidismo
- Sospecha de tumor
- Traumatismo
- Dolor
d) MUSCULO ESQUELÉTICO
El examen músculo esquelético, como el nombre lo indica, permite el estudio de
músculos, tendones y articulaciones, como hombro, codo, muñeca, mano, cadera,
rodilla, tobillo, entre otros,
Indicaciones
- traumatismo
- tumores
- tendinitis
- quistes sinoviales
e) PROSTATA TRANSRECTAL
El examen prostático transrectal permite estudiar alteraciones de la glándula
prostática y las vesículas seminales.
Indicaciones:
- Aumento del antígeno prostático
- Estudio de fertilidad
- Tumor prostático
- Prostatitis
f) ENDORECTAL
El examen endorectal puede ser usado para evaluar masas rectales, en especial
su extensión en profundidad. Este procedimiento permite estudiar el esfínter anal y
demostrar la existencia de abscesos o fístulas.
Indicaciones:
-Tumor rectal
-Incontinencia rectal
-Fístula perianal
24
a) MAMOGRAFÍA
La mamografía es el estudio de las mamas mediante los rayos X. Para una visión
óptima cada mama debe ser fijada y comprimida en un equipo especial, operado
por una tecnólogo médico experto. El procedimiento, que dura 15 minutos, produce
una sensación de presión o de firmeza en las mamas por un par de segundos.
Si durante el examen la paciente se siente incómoda, debe comunicárselo a la
tecnóloga.
Para minimizar la posibilidad de molestias, se recomienda programarla después de
la menstruación. También ayuda evitar consumir cafeína (café, té, chocolate, coca-
cola) por dos o más semanas antes del examen.
Frente a cualquier sospecha de embarazo, la mamografía -igual que otros
exámenes radiológicos- debe postergarse, salvo indicación explícita de su médico
tratante.
Equipamiento
El mamógrafo es un equipo de rayos X especialmente creado para el estudio de la
mama. La realización de una mamografía es un procedimiento técnicamente
sencillo pero muy delicado. La calidad de la imagen obtenida debe ser óptima,
puesto que frecuentemente el diagnóstico se basa en pequeños y sutiles detalles.
Así, por ejemplo, finas microcalcificaciones que pueden representar una patología
importante, pueden pasar desapercibidas con una técnica no adecuada.
b) ECOTOMOGRAFÍA MAMARIA
Mediante el ultrasonido se estudian las mamas (ver ecotomografía). La técnica es
completamente inocua, repetible cuantas veces se quiera, incluso en mujeres
embarazadas y niñas.
25
requiere transductores especiales, de alta resolución y un operador experto quien
sepa estudiar, registrar e interpretar la imagen que se obtiene.
Indicaciones
- Estudio mamario en pacientes jóvenes como recién nacidos, lactantes, niños,
adolescentes y mujeres de menos de 25 años, en las cuales la posibilidad de
cáncer es prácticamente inexistente.
- Evaluación complementaria de ciertas lesiones detectadas en mamografía
Especialidad médica que usa la radiación nuclear para visualizar el cuerpo y tratar
enfermedades. Las imágenes que se obtienen en esta especialidad dan cuenta del
funcionamiento del órgano y de su estructura, a diferencia de la radiología que sólo
muestra los detalles anatómicos.
Los estudios y tratamientos se efectúan administrando al paciente pequeñas dosis de
material radioactivo conocido como radiofármaco, que son atraídos por sus
características físicoquímicas al órgano o tejido que está siendo estudiado o tratado.
Ubicados en su sitio, los radioisótopos emiten radiación gama que es captada por un
equipo -gamacámara- que registra la irradiación y un computador construye la imagen
del órgano estudiado.
La cantidad de radiación que emiten los procedimientos de medicina nuclear es
comparable a la recibida en radiología, por lo cual el embarazo contraindica la
realización de estos exámenes
Tipos de exámenes:
26
a) CINTIGRAMA ÓSEO
El Cintigrama óseo detecta cambios en el metabolismo del hueso. Debido a que
estas alteraciones anteceden a las estructurales, los cambios pueden ser
visualizados antes de que aparezcan en una radiografía. Por esta razón este
examen es más sensible que la radiografía para detectar infecciones, fracturas y
tumores en los huesos.
Indicaciones:
- Artritis
- Osteoporosis
- Fracturas
- Tumores
- Sospecha de metástasis
- Abuso de menores
- Dolores óseos
Procedimiento
En primer lugar se inyecta por vía endovenosa un trazador que no produce efectos
colaterales. Dos a tres horas más tarde el paciente es citado para la obtención de
imágenes de todo el esqueleto, lo que se demora aproximadamente 30 minutos.
Durante la espera el paciente debe tomar mucha agua y vaciar continuamente su
vejiga para eliminar el trazador que no se ha fijado en los huesos.
Posterior al examen no hay restricciones, se vuelve a una vida normal. No hay
riesgos para las otras personas.
Procedimiento
Por una vía venosa se inyecta un trazador. Éste se fijará a las células del músculo
27
cardiaco en proporción directa al flujo sanguíneo. Si una zona recibe menos sangre
debido a una enfermedad coronaria, el trazador se fijará en menor proporción y
podrá ser reconocida en las imágenes.
El examen requiere de la administración del trazador en dos oportunidades, una
bajo estímulo del corazón y la otra en condiciones basales o de reposo. El estímulo
puede ser con ejercicio o a través de medicamentos (dipiridamol o dobutamina).
Las series se pueden realizar en un día o en dos. El examen completo es largo y
toma entre dos horas y media y tres horas.
Miocardio en 3D
Procedimiento
Se inyecta una pequeña cantidad de marcador radiocoloidal en la periferia del
tumor o de la cicatriz operatoria, seguida de imágenes inmediatas post-inyección y
tardías de hasta tres horas y, finalmente, marcación del ganglio centinela sobre la
piel.
d) DENSITOMETRÍA ÓSEA
Este examen tiene el objetivo de medir la cantidad de calcio presente en los
huesos. Sirve para detectar osteoporosis y controlar su tratamiento. Habitualmente
se mide la densidad ósea en la columna y caderas, porque son zonas frecuentes
de fracturas graves en pacientes con osteoporosis. También es posible medir
densidad ósea de cuerpo entero y analizar la composición corporal, es decir, medir
el contenido de grasa y masa muscular presente en el cuerpo.
Procedimiento
El examen es simple. La persona se desviste y se acuesta en una camilla para que
el equipo mida la densidad de columna y cadera. Además, se obtendrá una imagen
de columna lateral con el fin de detectar aplastamiento de los cuerpos vertebrales.
El examen dura 20 minutos.
28
e) CINTIGRAMA RENAL
El cintigrama renal con Tc99m DMSA es un examen que sirve para conocer la
función de cada riñón por separado, y para la detección y valoración del daño
provocado por lesiones focales en los riñones (pielonefritis).
Procedimiento
Se inyecta una dosis endovenosa de Tc99m DMSA que se fija selectivamente en la
corteza renal y después de dos horas se obtienen imágenes de los riñones. No
produce efectos colaterales.
Las imágenes se obtienen haciendo pasar a través del cuerpo cantidades pequeñas y
controladas de rayos X. Para algunos exámenes es necesario el uso de un medio de
contraste que permita visualizar estructuras que de otra forma serían invisibles. La
mayoría de las radiografías son efectuadas por un tecnólogo médico, y posteriormente
analizadas por el radiólogo, quien emite el informe. Sin embargo, algunos exámenes
son realizados directamente por el médico radiólogo.
En general, las radiografías demoran entre 15 y 30 minutos y no requieren de
preparación. Para algunos estudios más complejos puede ser necesario disponer de
más tiempo y de alguna preparación especial.
29
a) ESÓFAGO, ESTOMAGO Y DUODENO
El paciente bebe un vaso de bario con sabor a vainilla que hace visible su esófago,
estómago y duodeno. Generalmente se agrega una sal de fruta efervescente. El
radiólogo controla el examen en un televisor y le va pidiendo al paciente que
cambie de posición para visualizar adecuadamente los órganos de interés.
También le solicita que se mantenga sin respirar por breves segundos durante la
toma de las radiografías. Es un examen que se utiliza para el diagnóstico de reflujo
gastroesofágico, hernia hiatal, úlcera o tumores.
b) TRÁNSITO INTESTINAL
El paciente bebe bario con sabor a vainilla que hace visible su esófago, estómago
intestino delgado y ciego. El radiólogo controla el examen en un televisor y le va
pidiendo al paciente que cambie de posición para visualizar adecuadamente los
órganos de interés. Es un examen que se utiliza para el diagnóstico de alteraciones
del tránsito intestinal, sospecha de tumores y síndromes de mala absorción.
Examen radiológico del intestino grueso que incluye recto, colon y ciego. A través
de una cánula rectal colocada en el ano se introduce una mezcla de bario, que
permite visualizar la superficie interna del intestino grueso con diferentes ángulos
de visión. Este examen ayuda en el diagnóstico del cáncer de colon y recto, y en
enfermedades inflamatorias. También detecta pólipos, divertículos y alteraciones
generales del intestino grueso.
d) PIEOLOGRAFÍA DE ELIMINACIÓN
e) HISTEROSALPINGOGRAFÍA
30
Pantalla Fluoroscópica. Sustancias como el sulfuro de zinc al ser irradiadas por rayos X
emiten luz visible. Su luz es proporcional a la exposición de rayos X incidente y la imagen
luminosa es una réplica fiel del haz resultante.
Película Radiográfica. Esta formada por: 1) una pantalla de centelleo que tiene una lata
eficacia en la captura de fotones X y además convierte los fotones en luz. 2) Una placa
fotográfica que capta la luz producida en la capa anterior. Después del revelado el
ennegrecimiento es proporcional a la cantidad de radiación recibida. Es por tanto una
imagen en negativo y la sustancia más radio transparente aparecerá en negro.
31
8.6 RADIOLOGÍA INFANTIL
Las enfermedades en los niños imponen desafíos distintos a los que se observan en
adultos y requieren de conocimientos específicos. Los esfuerzos están dirigidos a
realizar los mejores estudios radiográficos de la forma menos molesta para el niño y en
un ambiente grato, familiar y acogedor.
32
Las técnicas especiales son:
a) ANGIORESONANCIA
Estudia en forma no invasiva los vasos sanguíneos. Su principal indicación es el
estudio de los vasos del cerebro, cuello, arco aórtico, arterias renales, hígado y
extremidades.
33
Especialmente dirigido a estudiar la vía biliar, compuesta por conductos como los
intrahepáticos, el colédoco, la vesícula y el conducto del páncreas. Su principal
indicación es la búsqueda de cálculos y tumores que obstruyen la vía biliar y
pueden producir ictericia.
La Tomografia Axial Computada (TAC) es una técnica de imagen que combina rayos
X y computación. Puede dar información anatómica y funcional de vasos sanguíneos,
huesos, partes blandas y órganos internos con gran detalle. También permite la
obtención de imágenes 3D del cuerpo entero para el análisis de metástasis
cancerosas. Es un examen sencillo, rápido, seguro y que no causa dolor.
Las imágenes se generan gracias a un haz de rayos X que gira entorno al paciente
sobre la región a estudiar. El sistema computacional analiza la atenuación de estos
rayos y compone imágenes anatómicas que se fotografían para su estudio y análisis.
Con el TAC se pueden examinar diversas partes del cuerpo, por lo tanto, existen varios
tipos de estudio:
Es una imagen de proyección: una parte de los detalles de los objetos se pierde en el
proceso de obtención de una imagen radiográfica, debido a la superposición de
información de los objetos tridimensionales en a placa radiográfica.
34
La tomografía axial computarizada permite la obtención de imágenes de secciones (rodajas)
del cuerpo humano, y la formación de imágenes tridimensionales a partir de la exploración de
rodajas sucesivas (proyecciones) y la aplicación de técnicas de reconstrucción de imágenes a
partir de sus proyecciones.
Fuente de rayos X colimada, produce un haz fino de radiación (0.6 – 1.2 mm de haz
generados con pulsos de 2 a 3 mseg, mediante un generador de pulsos de 600 a 650 mA y
100 a 150 KV). El tubo de R-X emite durante unos pocos milisegundos y en intervalos de
centésimas de segundo. Para conseguir un haz tan estrecho se usa un colimador que solo
irradie en la capa de estudio.
35
Dispositivo mecánico, que permite barrer con la pareja fuente/detector la superficie cuya
imagen se desea obtener.
36
8.13 PROCEDIMIENTOS PARA LA RECONSTRUCCION DE IMÁGENES TAC
Observe como las proyecciones “Ph” y “Pd” son idénticas, para eliminar esta ambigüedad es
necesario disponer de más información (proyecciones).
37
Método directo mediante transformada de Fourier.
Problemas de la técnica:
Tiempo de cálculo.
Posibilidad de no convergencia cuando existe ruido en la imagen.
38
Inicialización
39
8.13.2 Método directo mediante transformada de Fourier
40
La proyección es:
Tomando transformadas:
en polares
41
Lo que permite concluir que la TF de una imagen f(x,y) particularizada para el eje en
polares = θ coincide con la TF de la proyección de f(x,y) en la dirección θ.
De esta forma F(u,v) puede ser definida en todo el plano sin más que disponer de
suficientes proyecciones de f(x,y).
Una vez que tengamos F(u,v), f(x,y) se calculará como trasformada inversa de Fourier de
F(u,v).
Los sistemas TAC, desde su introducción en 1973 por EMI ltd. Han evolucionado a gran
velocidad con el fin de proporcionar: una resolución de imagen progresivamente creciente y
tiempos de exploración y reconstrucción cada vez más cortos.
1era Generación. Consta de una única fuente que emite un haz en forma de lápiz. La
exploración se realiza combinando un movimiento de rotación y otro de traslación de la
fuente y el detector. En una exploración se realizan varios barridos en el plano transversal
del eje del objeto y se hacen tantas exploraciones como posiciones angulares que el
sistema fuente/detector pueden tomar. Los tiempos de exploración son muy largos (4.5
min) y la resolución es pequeña (80 x 80 pixels). Debido al alto tiempo de barrido no se
puede utilizar ni para explorar el abdomen ni el torax, quedando limitado su uso a obtener
imágenes del cerebro.
42
2da Generación. Usan un array lineal de unos 30 detectores, sobre los que incide un haz
de R-X en forma de abanico. De esta forma se acortan los movimientos de traslación,
reduciendo e tiempo de exploración a 2.5 min. y produciendo imágenes de 160 x 160
pixels.
5ta Generación. Están formados por muchas fuentes y detectores que están fijos y
funcionan de forma sincronizada. El tiempo de exploración se reduce a centésimas de
seg. y la resolución está entre 240 x 240 y 1000 x 1000 pixels.
En la actualidad conviven los sistemas de 3era a 5ta generación ya que algunos de ellos se
han especializado en función del tipo de exploración a realizar.
9 KARHUNEN LOEVE
At this stage, we have synthesized a normalized mug-shot for each individual in a scene. The
large, nonlinear variance due to pose and illumination has been eliminated and it is now
possible to classify individuals by simple linear techniques. We consider the use of Karhunen-
Loeve Decomposition (KL), also known as Principal Component Analysis (PCA) on the intensity
images. This technique is traditionally used in statistical signal detection and estimation theory
and has been adapted to compression and recognition.
Each intensity image is converted into a (raster) vector form. Note that this purely intensity-
based coding of the image is not necessarily ideal for the application of KL-decomposition. The
mug-shot images are pixels, these vectors are 7000-tuples or 7000 element vectors.
A total of 338 such mug-shot images are acquired and converted into vector form. The
43
ensemble of vectors is assumed to have a multi-variate Gaussian distribution since faces
form a dense cluster in the large 7000-dimensional image space. We wish to produce an
efficient decomposition which takes advantage of the redundancies or correlations in this data.
Linear variance analysis makes it possible to generate a new basis which spans a lower
dimensional subspace than the original 7000-dimensional space and simultaneously accounts
optimally for the variance in the ensemble. PCA generates this small set of basis vectors
forming this subspace whose linear combination gives the ideal approximation to the original
vectors in the ensemble. Furthermore, the new basis exclusively spans intra-face and inter-face
variations, permitting Euclidean distance measures in the sub-space to exclusively measure
changes in identity and expression. Thus, we can use simple distance measurements in the
subspace as a classifier for recognition.
vectors. Some of these vectors. We begin by computing the mean, , of the 338 vectors
which generates Figure:
We then generate deviation vectors, , as in Equation and arrange them in a dataset matrix,
The covariance matrix C of our dataset is computed and its eigenvectors will form the
orthonormal basis which optimally spans the subspace of the data (human faces). There exist
two ways of computing and manipulating C which yield the same result yet with different
efficiencies. We begin by considering C generated using Equation .
C = DT D
44
We can compute the n eigenvalues and eigenvectors of this symmetric
matrix. The eigenvectors and their corresponding eigenvalues are ranked such that
Note that the magnitude of is equal to the variance in the dataset spanned by its
corresponding eigenvector :
It then follows that any vector, , in the dataset, D, can be optimally approximated. Thus, the
n-dimensional face deviation vector can be re-defined as a linear combination of eigenvectors
determined by M coefficients denoted by cxi M is the number of eigenvectors used to
approximate the original vector. The larger the value of M, the more eigenvectors are used in
the approximation and, consequently, the more accurate it becomes. M can be reduced
allowing more efficient storage of each face. However, the quality of the approximation
degrades gradually as fewer eigenvectors and coefficients are used in the linear combination:
Alternatively, we can obtain the same eigenvalues and eigenvectors from C', another symmetric
C' = D DT
such that for i<j. It is possible to then directly compute the first N eigenvalues
and eigenvectors of C:
We shall now describe the covariance matrix we select as well as actual method used to
extract the eigenvalues and eigenvectors.
45
9.2 KARHUNEN–LOEVE TRANSFORM
The KLT is an orthogonal linear transform which is optimal in the sense that it concentrates the
signal information in the minimum number of parameters (in the mean square error (MSE)
sense) (21). The KLT is a signal-dependent transform and must be derived from the statistics of
the signals to be analyzed. Thus, the KLT requires that a representative ‘‘training set’’ of signals
is collected to obtain the KLT basis functions (eigenfunctions). The KLT can be understood as a
rotational transformation of a pattern vector (the signal vector to be represented) into a feature
vector, composed by the KL coefficients. The first few components of the coefficients vector
represent almost all the signal energy. The KLT basis functions are derived from the covariance
matrix C of the training set estimated as
represents each signal vector in the training set (in this work it will be each ST segment, T
wave, or ST–T complex), m is the mean pattern vector over the entire training set, and xT is the
transpose of x. The orthogonal eigenvectors of C are the basis functions of the KLT, and the
eigenvalues represent the average dispersion of the projection of a pattern vector onto the
corresponding basis function. When the basis functions are obtained, each signal vector x is
represented in the KL space by the coefficients vector
with φi representing the ith order KL basis function and x the signal vector (in our case the
analyzed complex or wave) with length N. The dynamic evolution of the signal can be
characterized by the study of the coefficient time series, αi(n), where i is the series order and n
is the occurrence time order. The time series αi(n) can also be normalized with respect to a
constant value given by the square root of a template signal vector energy and estimated as
where En0 is the energy of the template vector (xn0). The use of the template normalization
permits the quantitative interpretation of different KL series, with respect to the template beat
coefficients. An adaptive transversal algorithm can be used to remove noise which is
uncorrelated to the signal (22). When the LMS algorithm is used in the estimation of the ai(n)
series the time constant for the convergence of the MSE is
N
τ mse = ( samples)
4µ
46
CONCLUSIONES
47
BIBLIOGRAFIA
48
BALOTARIO CAPITULO 6
1. Definición de Nanotecnología
La Nanotecnología es la capacidad de medir, diseñar y manipular a nivel atómico, molecular y
supramolecular niveles en una escala de 1 a 100 nm en un esfuerzo por entender, crear y utilizar las
estructuras materiales, dispositivos y sistemas fundamentalmente nuevas propiedades y funciones
atribuibles a su pequeña estructura.
2. Definición de Nanobiomedicina
Es un campo que aplica los principios de nanoescala y técnicas para la
comprensión y transformación de materiales inertes y Biosystems (no vivos, de vida o pensamiento)
con fines médicos como la síntesis de drogas, la comprensión del cerebro, entre otros.
23. Indique los pasos para una respuesta eficaz ante un ataque biológico:
Advertencia de que un ataque se puede estar produciendo
Confirmación del ataque y los detalles del agente, la escala y exposición
En marcha la información para orientar y optimizar las actividades de respuesta
28. Los nanomateriales pueden contribuir a las estrategias de defensa biológica y las
aplicaciones en una serie de distintas formas funcionales:
1. Como barreras a agentes químicos y biológicos (CB) los agentes
2. Al proporcionar sustratos para los sensores de agente CB
3. Al proporcionar a los componentes funcionales del sensor para los agentes de CB
4. Como medio para almacenar y liberar agentes de descontaminación
5. Como agentes de descontaminación
29. Indique los tipos de materiales que pueden contribuir a estas funciones de los
nanomateriales
-Fibras, tejidos, membrana y textiles
-Polímeros conductores
-Nano descontaminantes
30. Describe dos enfoques diferentes para la descontaminación de nano materiales agente CB:
el uso de Nanopartículas
la colocación de trampas de materiales nanoestructurados en el interior de las redes de
transporte de alta porosidad.
Editado por
Neelina H. Malsch
CRC PRESS,Un titulo de Taylor & Francis, parte de el Grupo Taylor y Francis
International Standard Book Number-10: 0-8247-2579-4 (Paperback) International Standard Book Number-13: 978-0-8247-2579-2
(Paperback) Biblioteca del Congreso Número de tarjeta 2005045702
Este libro contiene la información obtenida de fuentes auténticas y de gran prestigio. Material reproducido es citado con permiso, y
las fuentes se indican. Una amplia variedad de referencias en la lista. Esfuerzos razonables se han hecho a publicar datos e
información fiables, pero el autor y el editor no puede asumir la responsabilidad de la validez de todos los materiales o por las
consecuencias de su uso.
Ninguna parte de este libro puede ser reproducido, reproducir, transmitir, o utilizado en ninguna forma por ningún medio electrónico,
mecánico o de otro medio conocido o por inventar, por fotocopia, microfilmación, grabación, o en cualquier almacenamiento de
información o la recuperación del sistema , sin el permiso escrito de los editores.
Los permisos para copiar o utilizar material electrónico de esta obra, www.copyright.com acceso
(http://www.copyright.com/) o póngase en contacto con el Copyright Clearance Center, Inc. (CCC) 222 Rosewood Drive, Danvers,
MA 01923, 978-750-8400. CCC es una organización sin fines de lucro que ofrece licencias y registro de una variedad de usuarios.
Para las organizaciones que hayan obtenido una fotocopia de la licencia por el CCC, un sistema diferente de pago se ha dispuesto
Aviso de marca: nombres de productos o empresas pueden ser marcas comerciales o marcas comerciales registradas, y sólo se
utilizan para la identificación y explicación, sin intención de infringir.
R857.N34B557 2005
610 '.28 - dc22 2005045702
Capítulo 1
Tendencias en Nanotecnología Biomédica de programas a nivel mundial
Mark Morrison and Ineke Malsch
Capítulo 2
La nanotecnología y las tendencias en los sistemas de administración de fármacos con Auto-
ensamblado Carriers
Kenji Yamamoto
Capítulo 3
Implantes y Prótesis
Jeroen J.J.P. van den Beucken, X. Frank Walboomers, and
John A. Jansen
Capítulo 4
Diagnóstico y Cribado de Alto Rendimiento
Aránzazu del Campo and Ian J. Bruce
Capítulo 5
Nano- Habilitado ,Componentes y sistemas para Biodefensa
Calvin Shipbaugh, Philip Antón, Gabrielle Bloom, Brian Jackson, and
Richard Silberglitt
Capítulo 6
Los contextos sociales y económicos: Selección de instrumentos en el desarrollo de
Nanotecnología biomedica
Ineke Malsch
Capítulo 7
Los posibles riesgos y recursos
Emmanuelle Schuler
Tecnologías convergentes:
La Nanotecnología Y La Biomedicina
Mihail C. Roco
Las investigaciones recientes sobre biosistemas en la nanoescala ha creado uno de los
más dinámicos de la investigación interdisciplinaria y dominios de aplicaciones para el
descubrimiento e innovación humanas (Figura I.1) .* Este campo incluye una mejor
comprensión y tratamiento de la vida y el pensamiento de sistemas, procesos revolucionarios
de la biotecnología , tesis de los nuevos medicamentos y su entrega específica, la medicina
regenerativa, ingeniería neuromórficos y materiales biocompatibles para el medio ambiente
sostenible. TEM Nanobiosis y la investigación biomédica es una prioridad en los Estados
Unidos, la Unión Europea, el Reino Unido, Australia, Japón, Suiza, China y otros países y
organizaciones regionales.
Con la debida atención a las cuestiones éticas y las exigencias de la sociedad, estas
tecnologías convergentes podrían producir enormes mejoras en las capacidades humanas, los
resultados de la sociedad, y la calidad de vida. La aparición en todo el mundo de la ciencia a
nanoescala
BIOMATERIALES Y PROCESOS
MODELOS
BIO NANO
HERRAMIENTAS
S&T PLATAFORMAS
* Las opiniones expresadas en este capítulo son las del autor y no necesariamente los de los EE.UU.
Nacional de Ciencia y Tecnología del Consejo o de la Fundación Nacional de Ciencia.
LA NANOTECNOLOGÍA Y NANOBIOMEDICINA
IMPLANTES Y PRÓTESIS
Van den Beucken et al. (Capítulo 3) muestra cómo la nanotecnología enfoques para los
implantes y las prótesis biocompatibles ser más relevante a medida que aumenta la esperanza de vida.
Los principales retos son la síntesis de materiales biocompatible, la comprensión y, finalmente, el
control de los procesos biológicos que ocurren en la implantación de materiales naturales y los
dispositivos sintéticos, y la identificación de futuras aplicaciones biomédicas de la nanotecnología
para hacer frente a varios asuntos de salud. El uso de los métodos de nanofabricación actualmente
disponibles para los implantes y el comportamiento de la célula comprensión cuando se pone en
contacto con materiales nanoestructurados también se describen.
DIAGNÓSTICO Y DETECCIÓN
Del Campo y Bruce (capítulo 4) revisar el potencial de la nanotecnología para el cribado de alto
rendimiento. La complejidad y diversidad de las biomoléculas y la gama de agentes externos que
afectan a las biomoléculas subrayar la importancia de esta capacidad. Los enfoques actuales y las
tendencias futuras se describen para los diversos grupos de las enfermedades, rodando el tejido, y la
terapéutica. Los métodos más éxito están basados sobre una superficie plana y microarrays de fibra
óptica, microfluidos, y puntos cuánticos. Sensores de nanoescala y su integración en la detección
biológica y química dispositivos para fines de defensa son revisados por Shipbaugh et al. (Capítulo 5).
Amenazas típicas y soluciones para la medición, redes y transmisión de información se presentan. En
el aire y la exposición de contacto puede ser evaluada utilizando principios de la escala nanométrica
para detectar la operación. Se describen Los principales retos para la investigación futura para la
detección biológica y química.8
Con la debida atención a las cuestiones éticas y las necesidades de la sociedad, estas tecnologías
convergentes podría permitir enormes mejoras en las capacidades humanas, los resultados de la
sociedad, y la calidad de vida. Malsch (capítulo 6) examina el potencial de la nanotecnología para
atender las necesidades de atención de la salud y las implicaciones sociales de la nano-investigación
biomédica y el desarrollo. Las avenidas más importantes de tratar la enfermedad de ambiente y los
temas principales a ser considerados por los gobiernos, las organizaciones cívicas, y el que se evalúan
público. Los aspectos sociales, económicos, éticos y legales son parte integrante de la R&D para
aplicaciones biomédicas.
Schuler (capítulo 7) Reseñas de los riesgos potenciales de la nanotecnología biomédica y
describe algunos escenarios posibles para la regulación a través de las fuerzas del mercado, las
extensiones de de las regulaciones actuales, los accidentes, la captura del regulador, la autorregulación,
o la prohibición de la tecnología. Las posibilidades de éxito de estos escenarios son determinados por
la forma en que las partes interesadas responder a la producción a gran escala y la comercialización de
espera para comenzar en la próxima década.
Los Estados Unidos iniciaron una estrategia multidisciplinaria para el desarrollo de la ciencia y
los fundamentos de ingeniería a través de su NNI en 2000. Japón y Europa ya cuentan con programas
amplios y planes para los próximos 4 o 5 años. Más de 40 países han desarrollado programas o los
proyectos centrados en la nanotecnología desde el 2000. La investigación sobre biosistemas ha
recibido mayor apoyo en los Estados Unidos, el Reino Unido, Alemania, Suiza y Japón. Otras
inversiones importantes en programas de investigación de nano-tecnología, con las contribuciones a
nanobiosistemas se han hecho por la Comunidad Europea, Australia, Taiwán, Canadá, Finlandia,
Italia, Israel, Singapur y Suecia. Relativamente grandes programas en nanotecnología, pero con
pequeños componentes de los biosistemas hasta el año 2004 han sido desarrollados por Corea del Sur
y China. Financiación del gobierno en el mundo ha aumentado a cerca de ocho veces lo que era en
1997, que exceden los $ 3.6 mil millones en 2004 (véase http://www.nsf.gov/nano). Las diferencias
entre los países se puede observar por los diferentes ámbitos de investigación que elija, los niveles de
la integración de programas en diversos sectores industriales, y las escalas de tiempo de sus objetivos
de R&D.
COMENTARIOS FINALES
REFERENCIAS
1. Roco MC, Williams RS, and Alivisatos P, Eds. Orientaciones de la investigación de nanotecnología.
Kluwer Academic Publishers, Dordrecht,, 2000, cap. 8.
2. Roco MC and Bainbridge WS, Eds. Tecnologías convergentes para mejorar Humanos de rendimiento.
Fundación Nacional de Ciencias -EE.UU. Informe del Departamento de Comercio, Washington, DC,
2002.
3. Roco MC. Nanotecnología: la convergencia con la biología moderna y la medicina. Curr Dictamen
Biotechnol 14: 2003, 337–346.
4. Ishijima A and Yanagida T. Nanobioscience sola molécula. Trends Biochem Sci 26:
438–444, 2001.
5. Misevic GN. Atomic force microscopy measurements: binding strength between a single pair of
molecules in physiological solutions. Mol Biotechnol 18: 149–154,
2001.
6. Bao G. Mecánica de las biomoléculas.J Mech Física de Sólidos 50: 2237–2274,2002.
7. Whitesides G y Boncheva M. moléculas más allá: la auto-ensamblaje de componentes de mesoscópicos y
macroscópicas. Proc Natl Acad Sci USA 99: 4769–4774, 2002.
8. P Nielaba, Mareschal M, y Ciccotti G, eds. Reducción de las escalas de tiempo: Molecular
Simulaciones para la próxima década, Springer, New York, 2002.
9. J. Baker observación directa de la interrupción bicapa lipídica por dendrímeros, personal de comunicación,
2004.
ÍNDICE
I. Introducción
II. Biomédica nanotecnología en los Estados Unidos
A. Iniciativa Nacional de Nanotecnología
B. Agencias Federales
1. Fundación Nacional de Ciencias
2. Departamento de Defensa de
3. Administración Nacional de Aeronáutica y del Espacio de
4. Institutos Nacionales de Salud
5. Agencia de Protección Ambiental
III. Biomédica nanotecnología en Europa
A. Introducción
B. Biomédica de la nanotecnología en el Programa de Investigación de la UE
C. Francia
1. Políticas e iniciativas gubernamentales
2. Redes
D. Alemania
1. Estrategia
2. Nanobiotecnología
3. Redes de competencia
4. Centros de Investigación
E. Reino Unido
1. Introducción
2. Colaboraciones de Investigación Interdisciplinario de
I. INTRODUCCIÓN
Este capítulo comprende una visión general de las tendencias en los programas de investigación
en nanotecnología para aplicaciones biomédicas en los Estados Unidos, los principales países
europeos y Japón. Nos centramos en las tecnologías para aplicaciones dentro del cuerpo, incluidas
las tecnologías de administración de medicamentos para los productos farmacéuticos, y los nuevos
materiales y tecnologías para las prótesis e implantes. También se incluyen las tecnologías para
aplicaciones fuera del cuerpo, incluyendo el diagnóstico y cribado de alto rendimiento de
compuestos farmacológicos. Cubrimos las principales áreas de aplicación de los productos
farmacéuticos y dispositivos médicos áreas donde los gobiernos esperan que la nanotecnología para
hacer contribuciones importantes. También esquema nacional y la Unión Europea, actualmente en
funcionamiento (UE) las políticas y programas destinados a estimular el desarrollo de la
nanotecnología biomédica en los EE.UU., Europa y Japón.
Varias aplicaciones de la nanotecnología ya están disponibles en el mercado. Esferas de lípidos
(liposomas) con diámetros de 100 nm están disponibles para llevar medicamentos contra el cáncer
dentro del cuerpo. Algunos anti-sprays pie hongos contienen partículas de óxido de zinc a
nanoescala para reducir la obstrucción.
La nanotecnología está produciendo impactos a corto plazo en las áreas de:
La mayoría de las aplicaciones actuales utilizan las cualidades nanopolvos en lugar de presentar
otras propiedades a escala nanométrica. La siguiente etapa de las aplicaciones de la nanotecnología
permitirá que los productos que presentan propiedades más inusuales como la creación de productos
se aborda desde la base hacia arriba. Esto se considera una medida del desarrollo de la
nanotecnología. A largo plazo del producto y las perspectivas de aplicación de la nanotecnología con
alto potencial de mercado de futuro incluyen:
La Iniciativa Nacional de Nanotecnología (NNI) en los Estados Unidos está en torno a cinco
temas de fondos distribuidos entre los organismos de financiación en la actualidad la ciencia a
nanoescala y la tecnología (S & T) de la investigación (véase el cuadro 1.1). Además de los fondos
federales, los estados individuales también están dedicando considerables recursos a la
nanotecnología. A largo plazo nanociencia básica y la investigación en ingeniería en la actualidad se
centra en la funda-mental de comprensión y síntesis de los bloques de construcción de nanómetros
de tamaño destinado a los avances potenciales en varias áreas, incluyendo la medicina y la atención
de la salud, la industria química y farmacéutica, la biotecnología y la agricultura y la seguridad
nacional. Este financiamiento está destinado a proporcionar un apoyo sostenido para los inversores
individuales y pequeños grupos para la realización de investigaciones fundamentales, promover la
Universidad asociaciones entre la industria de laboratorios federales, y fomentar la colaboración
interinstitucional.
Los Grandes Desafíos tema de la iniciativa incluye soporte para interdisciplinario equipos de
investigación y educación, incluyendo los centros y redes que trabajan en los objetivos a largo plazo.
La administración Bush identificó una docena de grandes desafíos esenciales para el avance de la
ciencia de la nanoescala y la tecnología. Estos incluyen el diseño y fabricación de materiales
nanoestructurados que son correctas en los niveles atómicos y molécula única. Estos avances están
dirigidos a las aplicaciones, incluidos los sensores biológicos para uso en el cuidado de la salud y la
detección de amenazas químicas y biológicas.
Tabla 1.1 Estados Unidos Iniciativa Nacional de Nanotecnología Presupuesto por Agencia *
FY FY FY FY FY FY FY
Departamento o Agencia 1999 2000 2001 2002 2003 2004 2005
Departamento de Defensa de 70 70 123 180 322 315 276
Protección del Medio – 5 5 5 5 5
Ambiente
Agencia 5 5 22 46 36 37 35
Nacional de Aeronáutica
National Institutes of Health 21 32 39.6 40.8 78 80 89
Nacional de 85 97 150 199 221 254 305
Ciencias
Total 225 270 463.85 604.4 862 961 982
* En millones de dólares.
\
© 2005 by Taylor & Francis Group, LLC
Muchos de los desafíos que están alineados con las misiones de los diversos organismos que
participan en la NNI. Se describen las actividades de algunos de estos organismos en el ámbito de la
nanotecnología biomédica más adelante en este capítulo.
Diez centros y redes de excelencia se han establecido, cada uno de los cuales se ha
concedido financiación de cerca de $ 3 millones anuales durante 5 años. En espera de un exitoso
examen provisional, cada centro puede ser elegible para un tiempo de 5 - renovación de un año. Los
centros desempeñan un papel clave en la consecución de las principales prioridades de NNI
(investigación fundamental, grandes desafíos, la educación de futuros científicos e ingenieros), en el
desarrollo y la utilización de herramientas específicas de investigación a nanoescala y en la
promoción de alianzas de investigación. Se prevé que el establecimiento de centros y redes de ayuda
a la integración de la investigación y la educación en ciencia de la nanoescala y la tecnología a través
de disciplinas y de diversos sectores de la investigación, incluyendo universidades, laboratorios
federales y el sector privado. Actividades de investigación interdisciplinaria de gobierno,
universidades y artistas intérpretes o ejecutantes industrial creará una integración vertical en disposi-
ción con la experiencia que van desde la investigación básica al desarrollo de la nanotecnología,
dispositivos y aplicaciones específicas.
La NNI también apoya la creación de una infraestructura de investigación de la metrología,
instrumentación, modelado y simulación, y las instalaciones. El trabajo a nanoescala exige nuevas
herramientas de investigación, por ejemplo, nuevas formas de la litografía, la capacidad de cálculo, y
los instrumentos para la manipulación. Nuevos centros de investigación que posee la
instrumentación se creará y pondrá a disposición de los investigadores de universidades, industrias y
laboratorios gubernamentales. El objetivo final es desarrollar la innovaciones que pueden ser
rápidamente comercializados por las industrias estadounidenses. Según a la ciencia de la nanoescala
y la Ingeniería (NSE) Grupo de representantes, si la necesidad de la instrumentación y la capacidad
de hacer la transición de la basada en el conocimiento del producto impulsado por los esfuerzos no
se abordan de manera satisfactoria, los Estados Unidos no seguirá siendo competitiva a nivel
internacional en este campo.
Las consecuencias sociales de la nanotecnología y la educación de la fuerza laboral y la
formación constituyen el tema de sesiones de la NNI. En concierto con la Universidad de la
iniciativa basada en las actividades de investigación, este esfuerzo está diseñado para educar y
formar a trabajadores cualificados, dándoles la perspectiva interdisciplinaria necesaria para avanzar
rápidamente en la escala nanociencia y la tecnología. Los investigadores también examinarán el
potencial ético, jurídico, social, mano de obra y las implicaciones de la ciencia a nanoescala y la
tecnología.
En el año fiscal (FY) 2002, la iniciativa NNI se centró en la investigación a largo plazo la
investigación de la manipulación de la materia a nivel atómico y molecular. Esta investigación
puede llevar a una mejora continua en la electrónica de tecnología de la información, mayor
rendimiento, materiales de mantenimiento más bajos para la industria, defensa, transporte, espacio y
aplicaciones de medio ambiente y bioacelerado de las aplicaciones tecnológicas para la medicina, la
salud y la agricultura. Nuevas áreas de investigación y enfoque de desarrollo iniciado en todos los
departamentos y agencias federales en De 2003 incluía los usos de la nanotecnología para la
industria química, biología, explosivos (CBRE) la detección y protección. La Iniciativa de NNI
también se centra en la investigación a nanoescala fundamentales a través de inversiones en
actividades dirigidas por el investigador, centros y redes de excelencia, y la infraestructura. En 2004,
la NNI añadido dos prioridades biomédica relacionada con: (1) sistemas de nanobiologica de los
avances médicos y nuevos productos, y (2) soluciones de nanotecnología para la detección y
protección contra las armas de destrucción masiva.
Los impactos de la nanotecnología en la sociedad se analizará desde jurídicos, éticos, sociales, y las
perspectivas económicas. Las actividades de colaboración con el Nacional de Aeronáutica y del
Espacio (NASA) relacionados con la nanobiotecnología y con los Institutos Nacionales de Salud
(NIH) en los campos de la bioingeniería y bionanodispositivos serán programadas. El Grupo de
NSE, incluidos representantes de todas las direcciones, coordinará las actividades de NNI en la
Fundación Nacional de Ciencias (NSF). Cada dirección tendrá dos representantes en el Grupo NSE
y el Presidente es el representante de la NSF. Los centros de investigación en nanotecnología con el
apoyo de la NSF se centran en áreas específicas de la ciencia y la ingeniería a nanoescala y participar
en las colaboraciones con las industrias y otras instituciones.
c. La Universidad de Columbia
d. Universidad de Northwestern,
f. La Universidad de Rice
2. Departamento de Defensa
Massachusetts Institute of Technology (MIT) ha sido seleccionada para acoger el ISN. El objetivo
de este centro de investigación de excelencia es el desarrollo de nano-clasificados metros de la escala
de S& T soluciones para los soldados. El esfuerzo de investigación previsto básica es ser financiado
entre el año fiscal 2002 y el año fiscal 2006 y asciende a $ 50 millones. Adicionales
20 millones dólares también puede ser proporcionada en forma de subcontratos UARC posterior a la
transición acelerada de los conceptos en las tecnologías de producible por los socios industriales que
participan en la investigación en el ISN. Industria contribuirá con un adicional $ 40 millones en
fondos y equipos.
La ISN estará integrada por hasta 150 personas, incluidos 35 profesores del MIT de 9 departamentos
en las escuelas de ingeniería, la ciencia y la arquitectura y la planificación.
Además de profesores, 80 estudiantes de postgrado, y 20 asociados posdoctorales, el ISN también
incluirá especialistas del Ejército de los EE.UU., DuPont, Raytheon, Massachusetts General
Hospital, y el Brigham and Women's Hospital. Los dos hospitales y el MIT también son miembros
del Centro para la Integración de la Medicina y Tecnología Innovadora tecnología. La ISN se
centrará en seis capacidades soldado clave: (1) la detección de amenazas, (2) la neutralización de
amenazas, (3) ocultamiento, (4) mejorar el rendimiento humano, (5) en tiempo real automatizado de
tratamiento médico, y (6) reducción de logística huellas. Los temas
ser abordados por siete equipos de investigación son:
Raytheon, DuPont, y los dos hospitales de servir como socios fundadores industrial que
trabajará en estrecha colaboración con el ISN y con el Ejército Natick Soldier Center y el
Laboratorio de Investigación para avanzar en el campo de la ciencia.
Técnicas de fabricación de una sola nanotubos de carbono de pared para reforzar la estructuración, electrónico,
magnético, lubricantes y dispositivos ópticos, sensores químicos y biosensores
Herramientas para el desarrollo de dispositivos autónomos capaces de detectar y expresar, comunicar, y
funcionar como una red, ampliando la presencia humana más allá de los sentidos normales
La robótica que utilizan la nanoelectrónica, sensores biológicos, y los sistemas neuronales artificiales
La NASA invierte hasta $ 1 millón por año hacia la comprensión de las implicaciones sociales y
éticas de la nanotecnología, con un enfoque en el ámbito de la vigilancia de la salud humana. Los
centros de investigación de la Universidad tienen la oportunidad de organizar la investigación de los
estudiantes y becarios posdoctorales, incluidas las oportunidades para trabajar en centros de la
NASA. Un programa de la NASA de base nanociencia 2003 se centró en los sistemas de
investigación biomolecular un conjunto de la NASA-National Cancer Institute (NCI) la iniciativa.
Un segundo foco está en la biotecnología y la biología estructural. La intención de la NASA, como
se señaló anteriormente, es promover y explotar la zona de convergencia de la nanotecnología, la
biotecnología y tecnología de la información.
La colaboración es especialmente importante para la NASA. Se reconoce la importancia
de las tecnologías de la importación de otras agencias federales. Debido a que la nanotecnología es
en su infancia, el amplio espectro de conocimientos de investigación básica realizada por otras
agencias federales se beneficiarían de la NASA. La NASA se concentrará principalmente en sus
necesidades únicas, por ejemplo, los dispositivos de baja potencia y materiales de alta resistencia que
pueden realizar con autonomía excepcional en un entorno hostil del espacio. Un programa conjunto
con el Instituto Nacional del Cáncer en cuestión no invasiva con vigilancia de la salud humana a
través de la identificación y detección de firmas moleculares el resultado de un interés común en este
ámbito.
© 2005 by Taylor & Francis Group, LLC
La NASA espera que la NSF-patrocinado por el trabajo de amplio alcance los datos derivados
de la investigación fundamental y hace hincapié en el trabajo en apoyo directo de las áreas de Grand
Challenge de la Agencia selecciona para centrarse en colaboración con el Departamento de Defensa
(materiales aeroespaciales estructurales, dispositivos tolerantes a la radiación de alta imágenes de
resolución), NIH (no invasiva vigilancia de la salud humana a través de la identificación y detección
de firmas moleculares, biosensores) y el Departamento de Energía de EE.UU. ( "laboratorio en un
chip"; vigilancia del medio ambiente).
La NASA ha aumentado significativamente la participación en programas universitarios de
nanotecnología competitiva otorgando tres universitarios de investigación, la ingeniería y los
institutos de tecnología (URETIs) en el año fiscal 2003. Un área de atención es la fusión
bionanotecnología. Cada premio es de $ 3 millones anuales durante 5 años, con una opción de
ampliar la concesión hasta un máximo de 5 años. Oficina de la NASA de Técnica Aeroespacial en
Washington, DC establecido siete URETIs, cada uno en un área de largo plazo de interés estratégico
para la agencia. La Universidad de California en Los Ángeles especializada en la fusión de
bionanotecnología y la tecnología de la información. Princeton y Texas A& M universidades se
especializan en materiales bionanotecnología y estructuras para vehículos aeroespaciales. Las
nuevas asociaciones dan la asistencia de la NASA de investigación muy necesarios-tancia de la
nanotecnología, aunque sus conexiones con la universidad de investigación Comunidad han
disminuido en los últimos años. Todos los proyectos individuales dentro de los institutos tienen la
industria, así como apoyar a las universidades.
La función principal de cada universidad, instituto con sede en es realizar investigación y
desarrollo que tanto aumenta la comprensión fundamental de los fenómenos y se mueve avances
fundamentales de los descubrimientos científicos a la tecnología de base. Los institutos también
ofrecen apoyo para estudiantes de pregrado y de postgrado, el desarrollo de planes de estudios,
intercambios de personal, las oportunidades de aprendizaje y la formación en la investigación
científica y los conceptos de ingeniería aeroespacial de la mano de obra.
Los Institutos Nacionales de Salud (NIH) el apoyo a una amplia gama de áreas de investigación
biomédica la nanotecnología, tales como:
A. Introducción
C. Francia
1. Desarrollar y actualizar el equipamiento de los centros tecnológicos y salas limpias y abrir estos
centros a los laboratorios y las empresas de
2. Promover los proyectos científicos más innovadores y la red de los mejores centros de
investigación en el campo con el fin de tomar ventaja de los enfoques multidisciplinarios
3. Fomentar la movilidad entre los centros y recibir investigadores extranjeros, los candidatos de
doctorado, post-doctorales, etc
4. Crear nuevas empresas y las PYME
5. Desarrollar actividades de enseñanza en los distintos niveles
El programa nacional de nanociencias (véase el tabla 1.2) se inició en 2003 con financiación de £
15.3 millones de MRNT y el CNRS y la participación del CEA-DSM). Adicionalmente se añadió,
la Acción Concertada para el grupo de Nanociencias asignado financiación de £ 12 millones para (1)
convocatorias de propuestas, incluidas las del ámbito de la nanobiociencias y (2) proyectos
integrados incluyendo arquitecturas de sistemas híbridos con nanocomponentes orgánicos e
inorgánicos. En la financiación total, el francés para la nanotecnología es de aproximadamente 100
millones de libras más de 3 años, comenzando en 2003, principalmente para los cinco centros de:
2. Redes
De doce redes de nanotecnología existen en Francia según un estudio realizado por la Comisión
Europea, dos de ellos relacionados con la nanotecnología biomédica. Bio-chip de plataforma de
Tolosa reúne a ocho socios en el trabajo interdisciplinario para desarrollar la nueva generación de
biochips en miniatura en los procesos de producción por lotes. La coordinación está a cargo del
Laboratorio de Análisis y Arquitectura de Sistemas de
(LAAS) del CNRS.
Club de Nanotecnología (www.clubnano.asso.fr) es donde los investigadores y la industria con los
investigadores se reúnen para intercambiar información sobre la nanotecnología. El presidente
es C. Puech, el director técnico de Angenieux. El trabajo es realizado en las áreas de metrología,
fabricación, materiales, sistemas, y la biotecnología.
D. Alemania
Cifra total
Programa Duración (Million £)
2. Nanobiotecnología
Porque son variadas aplicaciones de NB, los proyectos en cuestión se refieren a una amplia
gama de áreas de investigación, por ejemplo, (1) aplicación de las nanopartículas en el suministro de
medicamentos y sistemas de diagnóstico, (2) el uso de nanoestructuras biológicas superficies en los
sistemas técnicos, por ejemplo, almacenamiento de datos, y (3) el desarrollo de biosensores y de
micro-arrays. Más información está disponible en www.bmbf.de y www.nanobio.de.
3. Redes de competencia
a. CAESAR
Dr. Jorgen Refresh (estructura, misión, la política de transferencia) PD Dr. Michael Mezquita
(películas delgadas de adaptación)
PD Dr. Elkhart Quanta (materiales inteligentes) Dr. Daniel Hoffmann (plegamiento de las proteínas)
César fue inaugurado en 1995 como un nuevo tipo de centro de investigación con el fin de
catalizar las actividades científicas y económicas y la creación de puestos de trabajo. Se trata de un
instituto privado de investigación sin fines de lucro que realiza investigaciones en la interfaz de
tecnología de la información, la física, ciencia de materiales, la química, la biología y la medicina. El
objetivo de cada proyecto de investigación es crear innovaciones comercializables que conducen a la
establecimiento de nuevas empresas industriales o de explotación.
Este objetivo se alcanza mediante (1) proseguir el tiempo los proyectos de investigación
multidisciplinar limitada, (2) equipos de montaje temporal de investigadores empleados por César y
por otras organizaciones de investigación y la industria, (3) el desarrollo de nuevos mecanismos de
comercialización, incluyendo el importante apoyo de empresas de nueva creación, y (4) que actúa
como núcleo de actividades de cooperación y un punto focal para las redes de conocimiento locales.
\
b. Charité
Charité es clínica universitaria más grande de Europa y la facultad de medicina basada en tres
sitios: Virchow-Klinikum, Charité Mitte, y Berlín Buch. La nanotecnología biomédica ha
evolucionado desde el departamento de radiología en Virchow. Dirigido por el Dr. Jordán, el grupo
ha desarrollado recientemente una forma de introducir dispersiones coloidales de nanopartículas de
óxido de super paramagnético biocompatibles de hierro en los tumores. Este trabajo dio lugar a la
formación de dos empresas spin-off, MFH GmbH y Aplicaciones MagForce GmbH.
El Instituto de Microtecnología Mainz (IMM) en Alemania cuenta con 160 miembros del
personal. Se especializa en los métodos, incluidas las técnicas de microfabricación LIGA, ultra-
violeta, la litografía, tecnología de película delgada, la ingeniería de ultraprecisión, microma
mecanizado láser, la micro-EDM que tienen aplicaciones en campos tales como microrreactores,
dispositivos biomédicos, microóptica, sensores y actuadores. Su investigación en nanotecnología se
centra en el desarrollo de herramientas para la microscopía de barrido sonda.
Otras áreas de investigación son la química de las nanopartículas, ampliación de los pro-
ducción de nanopartículas, puntos cuánticos, fósforos, biolabeling, bioimagen, la muerte celular,
dirigida deposición, productos de seguridad, tintas, y de catalizadores homogéneos y heterogéneos.
Los proyectos de futuro del Instituto se centrará en las células artificiales, con especial referencia
a la membrana y las funciones de la interfaz, las teorías de sistemas biomiméticos, nuevos conceptos
en la química coloidal, la compartimentación de los sistemas biomiméticos acompañante, y
nanocristalinidad. Científicos Personal pequeña ventaja, los grupos en gran medida independientes.
Contactos inter-disciplinaria Buena existen entre los distintos grupos de proyecto en el instituto, y
existen fuertes vínculos externos a través de proyectos conjuntos con las cuatro universidades de
Berlín, la reacción de la fuente de neutrones en el Instituto Hahn Meitner, y la instalación conocida
como radiación de sincrotrón BESSY.
Los institutos de obtener beneficios particulares para el desarrollo de la investigación de
punta sobre la base de la forma en que opera el sistema de financiación de los institutos Max Planck.
El gobierno proporciona fondos y permite que cada instituto para establecer su propia agenda de
investigación. Los institutos no están bajo una gran presión para encontrar socios comerciales. La
tendencia actual en Alemania es la financiación hacia proyectos de mayor envergadura con un
presupuesto de 5 millones de libras a la
25 millones de libras. Un grave problema es encontrar la física suficiente y estudiantes de la
química; muchos son reclutados en Europa del Este y China.
E. Reino Unido
1. Introducción
En 2001, £ 18 millones fue otorgado por dos centros que entran en la nanotecnología para
consorcios, liderados por universidades de Oxford y Cambridge, después de sus propuestas fueron
elegidos de de un total de 16. Los fondos para estas colaboraciones se han convertido en disponibles
a través de tres consejos de investigación del gobierno (EPSRC, BBSRC, y MRC) junto con el
Ministerio de de la Defensa. Los premios representan el compromiso más grande del gobierno de la
nanotecnología hasta la fecha. Después de 6 años, los IRC volverá a los medios convencionales de
apoyo.
Los elementos esenciales de un IRC son (1) una masa crítica de investigadores, (2) una
concentración de instrumentación avanzada, y (3) la investigación multidisciplinaria y excelentes
oportunidades de capacitación. Los IRC se espera para alimentar los aspectos "revolucionarios" de la
nanotecnología y proporcionar una base firme para "evolutiva" de los estudios sobre la base de las
tecnologías establecidas. La industria tiene un papel fundamental en definir con más precisión el
alcance de la IRC.
La nanobiotecnología IRC está a cargo de la Universidad de Oxford, con la participación de
de las Universidades de Glasgow y de York y el Instituto Nacional de Investigación Médica. Esta
colaboración también incluye vínculos con las Universidades de Cambridge, Nottingham y
Southampton. El consorcio está dirigido por el profesor John Ryan, que lidera Física de Materia
Condensada y del Departamento de Física. El grupo de Glasgow, liderados por el profesor Jon
Cooper y un equipo de seis profesores universitarios de otros, trata de combinar la experiencia en
nanotecnología, lab-on-a-chip, y los dispositivos biosensores para desarrollar una serie de
instrumentos muy sensibles que permitan a los biólogos a manipular
\
IV. JAPÓN
A. Introducción
Los organismos gubernamentales y las grandes empresas son las principales fuentes de
financiación para la nanotecnología en Japón. Las pequeñas y medianas empresas desempeñan un
papel de menor importancia. Las actividades de investigación son en general relativamente
manejados por grandes empresas industriales,
© 2005 by Taylor & Francis Group, LLC
gobierno, académicos y laboratorios. Según un informe de la Oficial de Comercio e Industria de
Japón, el gobierno japonés considera que la exitosa desarrollo de la nanotecnología como la clave
para la restauración de la economía japonesa. La mayor parte de la financiación de la nanotecnología
de Japón, apoyada por un número de agencias
Desde la década de 1980, se orientó hacia el estudio de fenómenos de escala nanométrica en
semi-ductor de materiales o el desarrollo de nuevos materiales. Japón se convirtió en participar
desde una fase temprana en la investigación en nanotecnología avanzada que condujo a un proyecto
en nanomecanismo
De 1985, el descubrimiento de los nanotubos de carbono por el Dr. Sumio Iijima en 1991, y la
tecnología atómica en 1992. Los funcionarios han sido el fortalecimiento de la capacidad de
investigación en la interfaz de las ciencias biológicas y la nanotecnología. Centros de investigación
en el sector público están ofreciendo cada vez más las posiciones para los científicos especializados
en nanobiología, la financiación de los regímenes de los jóvenes científicos en la nanobiotecnología
están surgiendo.
Japón fue impulsado a la acción por la NNI en los Estados Unidos. El gobierno japonés fundó el
Grupo de Expertos en nanotecnología en el marco del Feder Japón-ción de Organizaciones
Económicas (Keidanren) Comisión de Tecnología Industrial. La nanotecnología Japón elegida
como uno de las cuatro prioridades de su ciencia fiscal de 2001 y el presupuesto de tecnología. El
Consejo de Política Científica y Tecnológica, presidido por el Primer Ministro, Junichiro Koizumi,
decidió que la ciencia de la vida, la información y las telecomunicaciones, el medio ambiente y la
nanotecnología, así que revitalizar la economía japonesa.
A pesar de la presión para racionalizar el gasto público, el gobierno japonés sigue invirtiendo
fuertemente en la nanotecnología. Los campos de desarrollo de materiales y la fabricación a
nanoescala siguen ocupando el centro de atención. La nanotecnología es ahora la prioridad clave de
S básica de Japón y el segundo plan de T y obtuvo un aumento sustancial de la financiación del
gobierno central para el año fiscal 2002. El presupuesto total de la nanotecnología será alrededor de
£ 74.6 millones de dólares, la mayor parte de la cantidad comprometida por el Ministerio de
Educación, Ciencia y Tecnología (MEXT) y el Ministerio de Economía, Comercio e Industria
(METI). Tabla 1.4 resume nano-financiación de la tecnología en Japón para el período 2001-2003.
C. Apoyo y Desarrollo
El gobierno japonés tiene un amplio plan sistemático basado en promover y apoyar el desarrollo
de la nanotecnología. Los proyectos se clasifican en cuatro categorías:
La investigación básica. La atención se centra en el desarrollo de una comprensión básica de la
nanotecnología, junto con el desarrollo de nanopartículas y materiales nanoestructurados basados en
exploración amplia y profunda investigación en física, química y biología, y el desarrollo de nuevas
teorías y métodos de modelado, simulación y análisis.
Tecnologías genéricas. Temas de investigación son nanoanalyses, nanofabricación, y
nanosimulaciones.
Desafío proyectos de tipo. El objetivo es centrarse en proyectos R&D que creará las tecnologías
fundamentales y revolucionaria para apoyar a la industria en los próximos 10 a 20 años. Un ejemplo
de un proyecto R&D en esta categoría es el desarrollo de los biomateriales y los biosistemas y
tecnologías para el uso médico y cuidado de la salud mediante el fomento de proyectos
interdisciplinarios de biotecnología y nanosistemas.
V. CONCLUSIÓN
Kenji Yamamoto
ÍNDICE
I. Introducción
II. Sistemas de liberación desde la década de 1980
A. Gobierno de financiación para el suministro Nanodrug Sistemas de
III. Sistema de Ingeniería Química y Nanotecnología
IV. Hacia el desarrollo de Drug Delivery Sistemas con
Bionanotecnología
A. Auto-Asamblea y auto-organización
B. Nano particulas tamaño nanométrico y Espacios
C. Quantum Dot (Semiconductor nanopartículas)
V. Seguridad del Cuerpo Humano y la
VI de Medio Ambiente. Conclusión
Referencias
I. INTRODUCCIÓN
Hasta hace poco, las actividades de investigación a gran escala y el desarrollo de la nanotecnología a
cabo por las industrias y los programas nacionales de los gobiernos de muchos países incluyendo los
Estados Unidos, la Unión Europea y sus Estados miembros, y Japón. Los presupuestos nacionales han
invertido en la investigación y el desarrollo relacionados con los sistemas de administración de
medicamentos. La Iniciativa Nacional de Nanotecnología (NNI) en los Estados Unidos, el Programa
Marco de Investigación y Desarrollo Tecnológico de la Unión Europea, y el Consejo de Política
Científica y Tecnológica de la Oficina del Gabinete de Japón son ejemplos de los esfuerzos nacionales
orientados hacia los sistemas de suministro de fármacos participación de la nanotecnología.
Auto-ensamblaje es uno de los métodos comunes de procesamiento de la nanotecnología para la
producción de nanómetros de tamaño de partículas orgánicas (supermoléculas). Esta revisión se centra en
el desarrollo de la nanotecnología para aplicaciones en sistemas de suministro de medicamentos, en
particular la auto-ensambladas supermoléculas.
\
Algunos de los términos que se utilizan en este capítulo deberían definirse más claramente. Un
sistema químico se define como un conjunto de elementos químicos que tienen relaciones complejas
entre sí y en conjunto realizar ciertas funciones globales. Ingeniería de sistemas químicos se define como
un grupo de ideas, teorías y formas de utilizar los sistemas químicos para beneficiar a los seres humanos.
Nuestra definición de un sistema químico no se limita sólo a los materiales químicos, tales como los
compuestos y partículas ensambladas. También queremos extender esta definición a las entidades
biológicas, incluidos los virus, las células y órganos, los cuales consisten en elementos químicos. Una
entidad biológica completa también realiza algunas funciones como un organismo vivo.
Al utilizar la definición amplia, los fenómenos observados en los sistemas descritos a continuación
pueden ser representados con las ecuaciones fundamentales de los sistemas de partículas. Estas
ecuaciones pueden cubrir áreas tan diversas como la función de reacción de difusión, los sistemas de
enlaces entre los organismos vivos, e incluso el análisis de las relaciones sociales.
Las formaciones patrón de colonias de bacterias como Escherichia coli y Bacillus paeni-
dendritiformis se analizaron con ecuaciones diferenciales no lineales.12 En Bacillus subtilis, la transición
de fase de la morfología fue inducida por el contraciones de la nutrients13 y analizados utilizando el
sistema químico enfoque. Uno de los patrones de la colonia se resolvió con ecuaciones diferenciales no
lineales, la celda era considerado como un auto-ensambladas con cada vez mayor de partículas de los
compuestos químicos en el medio.14,15
No podemos decir que podemos analizar los patrones de colonias de microorganismos por medio del
proyecto del genoma o el post-proyecto del genoma actualmente en curso. Estos programas se ocupan de
la información secuencial y no químicos para el patrón tales como los "patrones de Turing" de reacción
Belousov-Zhabotinsky. El punto de vista-el punto descrito anteriormente puede considerarse como un
enfoque importante y útil no sólo para la ingeniería química del sistema, sino también para la
comprensión de la vida.
Se define una supermolécula como una partícula compuesta de un conjunto de elementos químicos
en la que cualquier elemento tiene unas relaciones complejas con otros elementos. Una
supermolécula conjunto, puede realizar algunas funciones globales. Por ejemplo, los glóbulos rojos
llevan el oxígeno puede ser considerado como una partícula que contiene una gran cantidad de la
hemoglobina. La capa exterior (la membrana celular) consiste en una bicapa lipídica. Las funciones de un
supermolécula no se limitan a las de la Asamblea de las moléculas individuales, un supermolécula puede
funcionar como un todo.
Se define la nanotecnología como un sistema de ideas, teorías y métodos que nos permiten diseñar
un supermolécula, para darse cuenta de la producción, y utilizarlo para la fabricación industrial y en la
vida diaria. Uno de los objetivos de la nanotecnología es el diseño y la producción de supermoléculas
independientemente de su tamaño.
Por último, bionanotecnología es muy parecida a la nanotecnología, salvo que la supermolécula en
bionanotecnología incluye no sólo la función sino también la información de la partícula conjunto. Por
ejemplo, considere una partícula de relleno para una pantalla de cristal líquido. Las nanopartículas de
relleno deben ser diseñadas para ser lo suficientemente pequeño como para mover eficazmente a través
de la vía. Después de la partícula llega a su destino y los comunicados de información que indique que el
lugar se ha llegado a los brazos de la superficie de que están diseñados para estirar y la pila de arreglar las
partes de los cristales líquidos con fuerza
A. Auto-ensamblado y auto-organización
Existen dos métodos para la transformación de la materia, como se muestra en la Figura 2.1. El
método de arriba hacia abajo es la fabricación de productos finales funcionales de un material a granel. El
segundo método consiste en el diseño y la fabricación de una unidad fundamental después de que un
producto funcional se ensambla con el conjunto de unidades, lo que se conoce como el de abajo hacia
arriba método.16 La célula utiliza este tipo de auto-tecnología de montaje para que ciertos materiales con
el fin de seguir con vida. Un ejemplo es el flagelar bacteriana ament.17 La unidad está diseñada para ser
montada por sí misma para facilitar el proceso de la producción de nanoestructuras (nanotubos y
nanovesículas) .18-20
La idea de autoorganización es similar a la de autoensamblaje. A través del método de auto-
ensamblaje, un producto crece capa por capa con un alto grado de equilibrio, (Figura 2.2).
A la inversa, un producto producido por el método de auto-organización se hace con un alto
grado de equilibrio. En este método, el producto está hecho de una sola vez desde el principio en lugar de
estar montada una capa a la vez. Un producto final hecho con la estructura funcional deseada por este
método no tiene un mínimo de la energía libre, pero tiene una pérdida mínima de entropía. El método
ascendente tiene otra característica superior. Como el producto final se hace de las unidades
fundamentales de
\
Materia
Estructura
Moles Fu n c t i o n a l
P a r t i cula
Unitaria
Desorden
Equilibrio, No
equilibrio
Figura 2.2 Auto-ensamblado y auto-organización.
Un punto cuántico es una de tamaño nanométrico de metales y / o grupo de silicio que tiene una
propiedad distinta de la generación de luz fluorescente. En 1962, R. Kubo 25 descubrió el punto cuántico
con un efecto de tamaño nanométrico grupo de metal a través de cálculos teóricos de las ecuaciones de
mecánica cuántica. El metal a granel se sabe que tienen un tamaño pequeño espacio de banda en su órbita
del electrón. Kubo calculó la órbita del electrón del metal plana (con una restricción de dimensiones) y
obtuvo una brecha de banda más ancha que la de los metales a granel (sin restricción de dimensiones).
Además de cálculo de la órbita del electrón del alambre de metal (con la restricción de dos dimensiones)
le llevó a obtener un espacio de banda mucho mayor. Por último, obtuvo la diferencia más grande de la
banda con el cálculo de la cuantía del tamaño de clúster de metal (puntos cuánticos) se ilustra en la Figura
2.3. En 1993, el punto cuántico efecto fue demostrado experimentalmente mediante el establecimiento de
un método para hacer las partículas de tamaño nanométrico grupo de metal por cuenta propia
organization.26
Un punto cuántico genera una luz fluorescente, la longitud de onda de la que depende sobre el
tamaño de la partícula por el efecto del tamaño cuántico descrito anteriormente (véase la Figura 2,4). La
luz que incide con una longitud de onda menor que el de luz fluorescente puede causar la emisión de un
electrón de la partícula.
\
punto cuántico
Pequeño Grande
Este método permite el uso de una banda mucho más amplia de la luz para la emisión que se
puede utilizar con convencionales compuestos orgánicos. Dos de las emisiones de fotones también son
eficaces para la generación de luz fluorescente. Los puntos cuánticos también se muestran como una
función característica como el efecto de memoria de la luz, el importe de la luz fluorescente llegue a ser
mayor después de la emisión y la memoria puede ser borrada por la luz brillante que otros en él.
En el caso del cadmio, selenio (Se-Cd), puntos cuánticos, semiconductores nano-partículas de Cd y
Se están montados en un nanómetro de tamaño del reactor realizados por óxido de triciclofosfina a alta
temperatura (620 K).
La seguridad del cuerpo humano y los efectos ambientales del proceso de fabricación de cuestiones
vitales están involucrados tanto en el tratamiento de enfermedades y el desarrollo de nuevos nanómetro
de tamaño transportistas de drogas. A pocos estudios de toxicidad se ha informado de nanopartículas
orgánicas de nuevo desarrollo, como el agua-fullerenes34 soluble-38 y la puntos cuantícos mínima.39
toxicidad oral y dérmica se ha reportado en estudios con animales de fullerenes40 y un estudio de
toxicidad aguda realizada después de la administración administration.41 Como para el punto cuántico,
Shiohara et al.39
\
VI. CONCLUSIÓN
REFERENCIAS
Implantes y Prótesis
ÍNDICE
I. Introducción
II. Biomateriales
A. Introducción
B. Propiedades de Biomateriales
1. Granel Propiedades
2. Propiedades de superficie
C. Ciencia Biomateriales: Campo Multidisciplinarias
III. Los procesos biológicos
A. procesos de curación de la herida
1. La formación de trombos
2. Fase inflamatoria
3. Fase reparadora
4. La remodelación tisular
B. Los macrófagos
C. biomaterial interfaz Procesos
D. Consejo de Relaciones Exteriores de reacción
IV. La nanotecnología en Implantología
A. Introducción
B. actual Nanofabricación Métodos
1. Litografía
2. Resiste coloidal
3. Sistemas de auto-Asamblea
4. Litografía suave
5. Enfoques Biomiméticos
6. Revestimientos de ADN
I. INTRODUCCIÓN
II. BIOMATERIALES
A. Introducción
Los biomateriales son sustancias utilizadas para la producción de dispositivos que interactúan
con los sistemas biológicos. Esta definición sí sugiere que los biomateriales pueden ser utilizados.
Por ejemplo, los biomateriales se utilizan para los cultivos celulares en laboratorios, para la
producción de dispositivos de diagnóstico, para los aparatos extracorpórea (corazón-pulmón
artificial), y muchas otras aplicaciones. Sin embargo, la producción de los implantes constituye el
principal uso de biomateriales.
El uso de biomateriales en medicina no es un concepto nuevo. Tan temprano como 2000 años,
los implantes dentales de oro o hierro fueron usadas.3 Sin embargo, el uso práctico de los implantes
en esa época no es comparable a su uso actual. La creciente demanda de implantes seguros y fiables
han resultado en la evolución de la ciencia biomateriales como una disciplina distinta. Además de la
BIOMATE algo anticuado-riales, como el acero inoxidable, un elevado número de novela, la
mayoría de polímeros, biomateriales ya están disponibles y se pueden clasificar como se muestra en
la Figura 3.1.
Artificial Natural
Colágeno / elastina
* Degradables y no degradables variantes
Figura 3.1 Clasificación de los biomateriales.
B. Propiedades de Biomateriales
Para funcionar adecuadamente, biomateriales que poseen propiedades que les permiten ser
utilizados con éxito para sus aplicaciones. En vista de ello, es lógico distinguir propiedades internas
de las propiedades de la superficie. Propiedades a granel (junto con el diseño) determinar la fuerza
(mecánico) de un implante, mientras que las propiedades de la superficie son importantes en vista de
la interacción eventual de un implante con los sistemas biológicos.
1. Granel Propiedades
Propiedades de materiales a granel son determinados por la organización de los átomos de los
materiales que se construyen y las fuerzas que los átomos se mantienen juntos
(fuerzas interatómicas). De tres tipos de fuerzas interatómicas son conocidos: los enlaces
iónicos, enlaces covalentes, metálicos y bonding.4
Las propiedades mecánicas de un biomaterial debe ajustarse a sus funciones, de lo contrario el
implante es probable que fracase. Por ejemplo, si un producto destinado a la fijación de una fractura
de hueso carece de la fuerza necesaria, que puede romperse, haciendo que el dispositivo adecuado
para esta función. Por lo tanto, las propiedades intrínsecas de los biomateriales pueden ser
apropiados para una determinada aplicación, y desempeñar un papel en el fracaso de un implante
hecho del mismo material y se utiliza para otra aplicación. En cuanto a los requisitos específicos de
una visión mecánica, tres propiedades intrínsecas de los materiales son especialmente importantes: el
módulo de elasticidad, límite de elasticidad, y en última instancia stress.5 Juntos, estos tres
parámetros determinan la rigidez, deformabilidad y resistencia del material.
Otra propiedad importante a granel de un biomaterial es la fatiga - el "proceso mediante el cual
las estructuras no como resultado de las tensiones cíclicas que puede ser mucho menor que la
tensión a la tracción" 4. Estas tensiones cíclicas son comunes en muchos lugares en el cuerpo
humano, tales las caderas como en un bombeo del corazón (válvulas de corazón artificiales), en la
boca (prótesis dental), y en las conexiones de las extremidades (artificiales).
El éxito de un implante depende de una amplia gama de parámetros que se originan de muchas
disciplinas. La fabricación de implantes implica conocimientos técnicos en los campos de
Shapabilidad Propiedades
moldeabilidad de superficie
BIOMATERIAL
Respuestas
Biológicas bioactividad
Moléculas
Integración de tejidos
moduladoras
Biología - Medicina
1. La formación de trombos
Antes de la iniciación de los procesos de curación, fluidos que contengan sangre padres
constituyentes rodean el biomaterial implantado recientemente. Los líquidos se originan en la
corrupción y aumento de la permeabilidad de los vasos sanguíneos y la extravasación posteriores de
los componentes de la sangre, todos los cuales son las consecuencias de la lesión tisular. A través de
cambios en el medio ambiente, varios componentes de la sangre como las plaquetas y se activan los
alrededores o incluso los tejidos adyacentes, iniciando así la coagulación de la sangre.19 La
activación de los resultados de las plaquetas en el aumento de adhesivos defensiva. Esto permite que
las plaquetas se agregan y forman un tapón para cerrar perforaciones de los vasos dañados y por lo
tanto limitar la pérdida de sangre. La cascada de la coagulación también implica la polimerización
de la fibrina. Las plaquetas activadas y los filamentos de fibrina polimerizada forman un coágulo
fibroso que sirve como matriz para la migración posterior de una variedad de células en el área de la
lesión. El reclutamiento de células a la zona de la lesión es al menos parcialmente, organizadas a
través de la liberación de ciertas sustancias biológicamente activas por platelets25 y las células
endoteliales.26 migratorias incluyen los que son importantes para la respuesta inflamatoria,
© 2005 by Taylor & Francis Group, LLC
la formación de tejido nuevo, y la remodelación tisular procesos .
2. Fase inflamatoria
3. Fase reparadora
4. La remodelación tisular
B. Macrófagos
Varios tipos de células están involucradas en los procesos biológicos que ocurren después de
la implantación de un biomaterial. La interacción entre estas células es muy importante porque
inadecuada la respuesta celular, directamente o indirectamente la funcionalidad del dispositivo
implantado. Las células responden a estímulos en su mayoría a través de receptores en su superficie.
A través de estos receptores, las células pueden reconocer una gran variedad de ligandos
como mediadores solubles secretadas por otras células (citocinas), las moléculas presentes en la
superficie de las células adyacentes, y distintos patrones en las moléculas de las proteínas de ECM.
Debido a su temprana aparición en un lugar de implantación, su longevidad, y la gran número de
citoquinas que pueden producir y secretar, los macrófagos son considerados como el tipo celular
más importante en las proximidades de un recién implantado device.32
Los macrófagos desempeñan múltiples funciones en un lugar de implantación que van
desde la fagocitosis de restos celulares y de los posibles patógenos a través de la iniciación de una
reacción inflamatoria a la orquestación de los procesos necesarios para curar el tejido dañado como
resultado de la intervención quirúrgica. En resumen, los macrófagos en una implantación sitio rigen
la magnitud y la duración de todas las fases y subfases del proceso de cicatrización de las heridas por
medio de la versatilidad en los mediadores que secretan que el control de las respuestas y las
funciones de muchos otros tipos de células.
Los efectos acumulativos de todos los procesos por separado contributiva que se producen en el
resultado de interfaz biomaterial en uno de los siguientes resultados de la implantación: (1)
integración, (2) extrusión, (3) la reabsorción, o (4) encapsulado. Si bien la integración del dispositivo
de biomaterial es el resultado más favorable, el número de casos en los que se logra biointegración
cierto es limitado.44 mayor frecuencia, se produce cierto biointegración después de la implantación
de biomateriales compatibles, como el titanio recubierto con hidroxiapatita (HA) en el hueso
tissue.45, 46 Implantación de los biomateriales en los tejidos blandos suele dar lugar a uno de los otros
tres resultados.
Extrusión se produce cuando un dispositivo implantado está en contacto directo con el tejido
epitelial. El epitelio se forma una bolsa continúa con la membrana epitelial adyacentes que
posteriormente se disipa el implante. En el caso del epitelio externo lium, el implante se exterioriza
desde el host. La reabsorción del implante puede ocurrir cuando un implante es de un material
biodegradable. Después de la reabsorción completa, sólo una cicatriz se derrumbó permanecerá en el
lugar de implantación. En la mayoría de los casos, los biomateriales implantados en los tejidos
blandos son encapsuladas por un proceso conocido como el cuerpo extraño reaction2, 47 (Figura
3.3). La cápsula comúnmente consiste de una membrana celular relativamente hipo con un colágeno
de alta contenida.48 Junto a este colágeno
A. Introducción
1. Litografía,
Figura 3.4 muestra los principios básicos de la fotolitografía. La litografía es una técnica
mediante la cual un material está recubierto con una película antes de la creación de las
características deseadas. La película es generalmente un polímero que es sensible a un tipo particular
de energía aplicada. Los polímeros sensibles a la luz o los electrones se pueden utilizar.
Dependiendo de la sensibilidad de los polímeros (también llamada la resistencia), las técnicas
litográficas se clasifican como de la fotolitografía (sensible a la luz resistir) o litografía por haz de
electrones
(electrón-sensibles resistir).
La irradiación de un patrón específico en un polímero sensible modifica las propiedades del
polímero en la zona. Un paso posterior disolución del polímero elimina sensibles afectadas, dejando
a un patrón específico de polímeros sensibles a la superficie de un bioma-rial. Fotolitografía
comúnmente emplea una máscara para permitir el control de la irracionales diation de la resistencia,
mientras que en litografía por haz de electrones, los haces de electrones se pueden centrar en, y
maniobró para las posiciones que quiera obtener el control sobre la zona irradiada.
Sustrato material
Resist
1. Revestimiento
Sustrato material
Fuente de luz
Máscara
2. seguridad
Resist
Sustrato material
Resist
3. Development
Sustrato material
Tono negativo Tono positivo
2. Resistencia coloidal
Dispersión coloidal
Aguafuerte, Deposición de
película delgada
La eliminación de las
partículas coloidales
Figura 3.5 Coloidal resistir técnicas. Una suspensión coloidal se dispersa en la superficie de la
un material. Afecta grabado o de revestimiento, seguido de la eliminación de las
partículas coloidales, resulta en un patrón sobre la superficie del material.
3. Sistemas de auto-Asamblea
4. Litografía suave
Litografía suave (Figura 3.6) es un término utilizado en conjunto de un grupo de técnicas gráficas en
las que un elastómero de dibujos, generalmente poli (dimetilsiloxano) o PDMS, se utiliza para
generar o transferir este patrón específico a través de moldeo, estampado, o enmascarar sobre una
superficie del biomaterial. Además, la réplica inversa puede PDMS ser utilizado como un "maestro"
para generar réplicas positiva de la plantilla original. Microcontacto de impresión es una técnica de
litografía suave con el contacto de la patrón de alivio de la marca de PDMS con la superficie del
biomaterial para generar un patrón de en el segundo. Antes del momento de contacto entre el sello
de PDMS y la superficie de biomateriales, la estampilla es "tinta" para crear el modelo de la marca
en la superficie del biomaterial. Más comúnmente, la impresión microcontacto se utiliza junto con
SAM sobre sustratos de oro. Patrones de SAM específicas se pueden crear, después de que el
espacio intrapattern puede ser llenado con cualquier otro SAM. SAM han respectivos a sus
propiedades químicas, los perfiles de adsorción selectiva de las proteínas. Selección de SAM
adecuado y el diseño de ellas en un patrón puede controlar la adhesión de la proteína.
resistencia
'maestr
o'
PDMS fundición,
Figura 3.6 Las técnicas de litografía suave. Utilizando técnicas de litografía convencional, un
maestro de
está preparado, sobre el que se proyecta PDMS. La réplica inversa PDMS
pueden utilizarse posteriormente para crear patrones (a través de grabado,
Tales dibujos, que contienen proteínas superficies pueden servir como ligados para los
receptores de la célula, lo que ofreciendo la oportunidad de dirigirse de células adjunto.65 Además de
la inmovilización de proteínas indirecta a través de SAM, patrón directo de proteínas utilizando
micro-impresión por contacto también es posible.
Patrón microfluídicos es una técnica que utiliza la red de microcanales crea-do durante el
contacto de la marca de PDMS para la generación de los patrones en la superficie del biomaterial. A
través de estos microcanales, los fluidos pueden ser entregados en las áreas seleccionadas de un
sustrato. En la impresión microcontacto, el modelo se crea en los sitios de contacto entre el sello y
los biomateriales. En cambio, en la morfogénesis de microfluidos, las áreas donde la marca no está
en contacto con el biomaterial son responsables de los patrones.
\
5. Enfoques Biomiméticos
6. Revestimientos ADN
Figura 3.8 Formación de capas múltiples capas polielectrolito. Polianiónica (por ejemplo, el ADN) y
polycationic polímeros pueden ser utilizados para generar multicapa basada en las
interacciones electrostáticas entre capas alternas. Esta técnica permite una amplia
variación en el número de capas polielectrolito que forman una capa de varios niveles y
los tipos de
de polielectrolitos.
1. Topográficos Nanoestructuras
V. CONSIDERACIONES
VI. CONCLUSIONES
La generación de implantes que tengan éxito en sus funciones prevista requiera un enfoque
multidisciplinario que involucra la comprensión de los procesos divergentes. Por esa razón, la
colaboración de los investigadores, se recomienda desarrollar implantes clínicamente segura y fiable.
Cuando la mayor parte de las propiedades de los biomateriales cumplir los criterios necesarios para
una función destinada específicos, propiedades de la superficie a ser importante para reducir al
mínimo las posibilidades de respuestas no deseadas por el medio ambiente biológico circundante
ambiente. En vista de esto, esperamos que la nanotecnología puede brindar un enfoque importante
por el cual una superficie de biomaterial puede ser modulada a disminuir de servicios común-contra-
respuestas biomaterial.
La nanotecnología puede proporcionar estrategias que pueden ayudar a crear características
de bioma-rial superficies en un rango de dimensiones que pueden ser adecuados para las células. En
su hábitat natural, una célula está rodeada por otras células y las proteínas de ECM que ofrecen una
amplia gama de señales (a través de célula-célula o células de contacto ECM) que influyen en el
comportamiento celular. La mayoría de estas señales se transmiten a través del receptor-ligando
interacciones, y sus dimensiones se encuentran dentro del rango nanométrico. Por lo tanto, varios
enfoques utilizando modulaciones de las superficies de biomateriales con características de
nanoescala se han comprometido a estudiar sus efectos sobre las respuestas de los tejidos en las
inmediaciones del implante. Una amplia variedad de enfoques incluyen nanoescala alteraciones
topográficas y químicas en la superficie del biomaterial. La combinación de enfoques (por ejemplo,
utilizando tanto nanotopografía y funcionalización péptido) podría ofrecer potencia adicional sobre
el comportamiento celular.
Aunque la investigación en esta área es todavía en su infancia, varios estudios publicados
indican los efectos beneficiosos nanotecnológicamente superficies modificadas puede tener para
implantología.138 Como muchos aspectos de la respuesta celular a los materiales aún se desconocen,
una mayor expansión de nuestra comprensión de la nanotecnología y las respuestas biológicas a
características de nanoescala eventualmente se traduce en diseños clínicamente aplicable para
biomaterial superficies que serán capaces de adaptarse a la funcionalidad requerida de un implante.
REFERENCIAS
1. Anderson, J.M. et al. Implants and devices, in Ratner, B.D., Hoffman, A.S., Schoen, F.J., and Lemons, J.E., Eds.,
Biomaterials Science: Introduction to Materials in Medicine. Academic Press, London, 1996.
2. Ratner, B.D. Replacing and renewing: synthetic materials, biomimetics, and tissue engineering in implant
dentistry. J Dent Educ 65, 1340–1347, 2001.
3. Crubezy, E., Murail, P., Girard, L., and Bernadou, J.P. False teeth of the Roman world.
Nature 391, 29, 1998.
4. Cooke, F.W. Bulk properties of materials, in Ratner, B.D., Hoffman, A.S., Schoen, F.J., and Lemons, J.E., Eds.,
Biomaterials Science: Introduction to Materials in Medicine. Academic Press, London, 1996.
5. Black, J. Biological Performance of Materials: Fundamentals of Biocompatibility. Marcel Dekker, New York,
1992.
6. Lacefield, W.R. Materials characteristics of uncoated/ceramic-coated implant mate- rials. Adv Dent Res 13, 21–26,
1999.
7. Schakenraad, J.M. Cells: their surfaces and interactions with materials, in Ratner, B.D., Hoffman, A.S.,
Schoen, F.J., and Lemons, J.E., Eds., Biomaterials Sciences: Introduction to Materials in Medicine. Academic
Press, London, 1996.
8. Cordero, J., Munuera, L., and Folgueira, M.D. The influence of the chemical position and surface of the implant on
infection. Injury 27, Suppl. 3, SC34–SC37,
1996.
9. Bauer, T.W. and Schils, J. The pathology of total joint arthroplasty. II. Mechanisms
of implant failure. Skeletal Radiol 28, 483–497, 1999.
10. Allara, D.L. Critical issues in applications of self-assembled monolayers. Biosensors
Bioelectron 10, 771–783, 1995.
11. Williams, D.F. and Williams, R.L. Degradative effects of the biological environment on metals and ceramics, in
Ratner, B.D., Hoffman, A.S., Schoen, F.J., and Lemons, J.E., Eds., Biomaterials Science: Introduction to
Materials in Medicine. Academic Press, London, 1996.
12. Liu, W., Cao, Y., and Longaker, M.T. Gene therapy of scarring: a lesson learned from fetal scarless wound healing.
Yonsei Med J 42, 634–645, 2001.
13. Webb, J.C.J. and Tricker, J. Bone biology: a review of fracture healing. Curr Orthop
14, 457–463, 2000.
14. Glowacki, J. Angiogenesis in fracture repair. Clin Orthop 355 (Suppl) S82–S89, 1998.
15. Harding, K.G., Morris, H.L., and Patel, G.K. Science, medicine and the future: healing chronic wounds. Br Med J
324, 160–163, 2002.
16. Singer, A.J. and Clark, R.A. Cutaneous wound healing. New Engl J Med 341,
738–746, 1999.
ÍNDICE
2000
1500
1000
500
Año
Matriz
Anitobdy
Microarray
Array de
tejidos
Matriz aptámero
Matriz de la
célula
Figura 4.2 Tipos de microarrays de superficie plana por materiales que están.
C. Nanotecnología y HTPS
HTPS ya está cambiando las formas en que los científicos y clínicos de las enfermedades y
sus tratamientos. Dentro de las próximas dos décadas, HTPS va a reemplazar la actualidad los
enfoques predominantemente reactivo para diagnóstico de la enfermedad y la vigilancia con
técnicas que será capaz de predecir y prevenir la disfunción celular y enfermedad.11
Análisis global del genoma, sus productos de transcripción (ARNm), y proteomas
utilizando el ADN y las matrices de proteína ayudará a establecer relaciones entre las
perturbaciones de proteínas comunes o las redes de genes reguladores y los estados de
enfermedad y desarrollo.12 rápida y de bajo costo y la secuenciación del genoma de perfiles de
polimorfismo hará posible formular declaraciones sobre las probabilidades de estado de la
enfermedad de un individuo o de predisposición. Las comparaciones perfil de expresión génica
de los individuos también prestará apoyo a estas actividades y hacer posible, por primera vez de
clasificar las variantes moleculares de la enfermedad exactamente.13
Los esfuerzos hacia la creación de tales enfoques predictivos se desperdicia si no se
acompaña por el desarrollo de métodos adecuados para prevenir y combatir la enfermedad. Por
lo tanto, los patrones de expresión de ARNm obtenido "huellas digitales" también se utilizará
para identificar los genes y los caminos que son posibles dianas terapéuticas. Microarrays de
proteínas que aceleran el descubrimiento de péptidos y proteínas terapéuticas y la identificación
de objetivos farmacológicos farmacognosia.14 candidatos en el uso de matrices para HTPS en la
farmacogenética se abre la puerta a una medicina individualizada, que tendrá en cuenta los
marcadores genéticos para predisposicionamiento a los efectos secundarios de los
medicamentos y / o eficacia,.15
célula-arrays que se utilizarán para evaluar la eficacia y toxicidad de los fármacos
candidatos dates.16 El poder de la célula de ensayos basados en combinación con las otras
matrices de análisis permitirá a la simplificación, en esencia, la condensación de los procesos de
descubrimiento de serie de drogas, disminuyendo así el tiempo y el costo de tener un "hit"
compuesto a los ensayos clínicos. Este tipo de estudios en el tiempo, cuando se combina con los
avances en nuestro conocimiento y comprensión de las proteínas y ácidos nucleicos,
proporcionará datos amplia y diversa
Sin embargo, estas técnicas han demostrado sus beneficios para las proteínas a gran escala
perfiles.11 Una comparación de los estrategias de detección se ilustra en la Tabla 4.1.
Glicano
Variable
región Fc
Región
constante
Para la fabricación de matrices AB, una gran cantidad y el número de ABS deben ser
producidos - rutinariamente lograrse a través de la tecnología de hibridomas o, si se requieren
cantidades muy grandes, por las bibliotecas de fagos. Aunque estos métodos han mejorado
considerablemente la producción de ABS, que son aún muy caros y esto limita la utilización y
aplicación de los arrays de anticuerpos.
Como una alternativa a la utilización de ABS como reactivos de afinidad, nanofabricado
receptores artificial capaz de reconocer específicamente las formas de proteínas han sido
propuesto.2
A través de impresión molecular de polisacárido como las películas con las figuras 3D
de las moléculas de proteína, ingeniería de superficies aplicables a las separaciones y los análisis
bioquímicos se han generado. Estas superficies se han probado en la adsorción de las proteínas a
partir de soluciones únicas o mezclas y la adsorción de proteínas de preferencia a las posiciones
sobre la superficie, donde la forma complementaria se ha impreso.
Hay varias razones para el estudio de los glicanos en biomedicina. (Glucanos puede
definirse como hidratos de carbono que se puede descomponer por hidrólisis en dos o más
moléculas de monosacáridos.) Los organismos vivos están constituidos por células que están
cubiertos por las diversas formas de glicanos que nos ayudan a identificar los tipos de células y
los estados. Estos glucanos están implicados en la protección exterior de las células contra el
estrés físico (por ejemplo, congelación) y el ataque bioquímicos (por ejemplo, las proteasas) y la
ayuda en la celda de reconocimiento celular, la adhesión y de señalización - procesos que son
esenciales para el crecimiento del tejido normal y la reparación, así como la transformación de
la célula tumoral y la metástasis.
De glicosilación es una forma de post -modificación de traslación que se produce durante la
síntesis de proteínas eucariotas. Es un factor clave para determinar la función de una proteína o
disfunción. Por último, la superficie celular glicanos juegan un papel crucial en las infecciones
bacterianas y virales de los organismos de acogida. Los microbios se aprovechan de estas
moléculas de para reconocer y penetrar en las células del huésped.
A pesar de su importancia biológica, la caracterización de las estructuras de hidratos de
carbono y la elucidación de sus funciones han quedado a la zaga la caracterización de proteínas
y ácidos nucleicos. Esto es consecuencia en gran parte debido al hecho de que los polisacáridos
presentes en la naturaleza una diversidad estructural y esto hace difícil su estudio. Por ejemplo,
los polisacáridos pueden diferir en términos de su monosacarido los residuos, así como en los
tipos y proporciones molares de los vínculos entre los ellos. Estas variaciones hacen difícil
caracterizan por la secuencia, la vinculación determinación, o 3D, análisis estructural. La
biosíntesis de la cadena de azúcar es complicado. A diferencia de
F. Microarrays de tejidos
Figura 4.4 De fabricación de microarrays de tejidos. (a), núcleos de tejido cilíndrico (normalmente 0,6 mm
de de diámetro) se extraen de un donante convencional () con un bloque de parafina
microarrayer tejido. (b) Se insertan en la actualidad agujeros prefabricados en un vacío
(receptor) bloque de parafina. (c) micrótomos regulares se utilizan para cortar secciones de
microarrays de tejidos. (d) El uso de un adhesivo sistema de diapositivas recubiertos facilita la
transferencia de las secciones de microarray de tejido en la diapositiva y minimiza la pérdida de
tejido, lo que aumenta el número de secciones que se pueden tomar de cada bloque de TMA.
(Foto couresy de Sauter, G., Simon, R., y Hillan, K. Nat Rev Drug Discov 2: 962-972, 2003.)
Todos los sistemas de matriz se discutió anteriormente se puede definir como de posición.
Una de las características de una matriz se define en un contexto de 2D (sus coordenadas x e y)
con respecto a un punto fijo o definido en una diapositiva determinada por un lector. La
detección de una señal en una determinada coordenada X indica que un evento ha ocurrido en
esa característica y de la intensidad de la señal generada, podemos tener una idea cuantitativa de
la cantidad de interacción que se produjo. Estos tipos de matrices tienen limitaciones, como la
dificultad con que pueden ser automatizados y fabricados, los volúmenes de las muestras
necesarias para permitir su funcionamiento, su capacidad discriminatoria, y la complejidad de
los sistemas de detección involucrados.
Por estas razones, los nuevos enfoques para la fabricación y aplicación de las matrices están
siendo desarrollados, algunos de los cuales son nonpositional y no se basan en la localización
espacial de la función para obtener datos útiles. Entre estos enfoques alternativos nonpositional
son el sistema automatizado de identificación de ligandos (ALIS), perla matriz basada en fibra
óptica, y la matriz de suspensión.
Conjuntos están compuestos de fibra óptica de haces de miles de fusión de fibras ópticas,
cada uno de ellos individualmente direccionables y modificado con una especie molecular
diferente, que tiene un código específico que permita su fluorescentes específicas detection.31
,61-63 Antes de describir estos arreglos, es importante examinar brevemente los principios
básicos de de fibras ópticas.
Una fibra óptica (3 a 10 µ m de diámetro) se compone de un núcleo de vidrio o de plástico,
rodeado por un material de revestimiento. El núcleo de la fibra puede ser grabado de forma
selectiva en otros
© 2005 by Taylor & Francis Group, LLC
Figura 4.5 Esquema de un haz de fibras (izquierda). Microscopia de fuerza atómica de haces de fibras
grabado (arriba). Cada pozo es de 3 micras de diámetro. Los pozos se pueden llenar con
complemen-taria del tamaño de las microesferas derivatizada con diferentes sensores químicos
(abajo). (Figuras cortesía de Epstein, JR y Walt, DR Chem. Soc. Rev 32: 203-214, 2003.)
de sus extremos para formar una especie de microplacas capaz de albergar especies
moleculares, coloides, o incluso si se modifican las células con sustancias químicas de
superficie adecuada (Figura 4.5). Si la especie se adjunta marcado fluorescente, la fibra óptica
puede ser también utilizado como una fluorescencia basada en la herramienta de detección
cuando la luz en una adecuada longitud de onda de excitación se entrega a través de la fibra y las
moléculas fluorescentes indicador de fluorescencia. La luz emitida puede ser capturada por la
misma fibra y la vuelve a transmitir un detector. Por miles de fusión de cada uno de fibras
ópticas en un haz densamente poblada, un conjunto de fibras ópticas puede ser construida. Este
formato ya se ha aplicado en la construcción de matrices de ADN en que la biblioteca del
sistema de microesferas (codificación) individualmente etiquetados con fluorocromos, cada uno
con un OND específicos en su superficie, ha sido inmovilizado en el núcleo extremos de las
fibras.
Este proceso de inmovilización en el núcleo extremo se produce al azar y el registro de
posición de cada esfera es necesario antes de la utilización de la matriz. Beaded matrices de
fibra óptica difieren marcadamente de las matrices de posición se ha descrito anteriormente en
que la posición de cada sonda en la matriz no está registrado por la posición deliberada durante
la fabricación de matriz, pero es espectralmente registradas después de su distri-bución al azar
en la punta central. Estas matrices se utilizan en una forma similar a la de las matrices de
posición. Las moléculas de destino debe estar marcado con fluorescencia, y su fluorescencia
pueden ser detectados por las fibras ópticas en los pozos donde la hibridación se ha producido.
C. Matrices de Suspensión
Analisis
Figura 4.6 ΤΑΣΣ ∝ υνε λα βιολογα ψ λα νανοτεχνολογα. (∆ε Λεε, Σ.ϑ. ψ Λεε, Σ. Τ. Αππλ
Βιοτ Μιχροβιολ 64: 289−299, 2004. Χον ελ περµισο δε.)
pueden tener sobre los resultados del análisis, estas características resultan en la reducción
de la fiabilidad de las pruebas de
llevado a cabo con estos sistemas.
La fabricación de MEMS implica procesos que son también comunes en la fabricación de
componentes microelectrónicos, es decir, la fotolitografía y micromecanizado de superficie para
crear estructuras con detalles intrincados (paredes verticales, cámaras, independiente vigas o
diafragmas, tuberías, válvulas, etc) y la deposición de películas delgadas para generar
superficies especializadas para la inmovilización de sustancias bioquímicas. Varios
µ tas40 ,65-70 se han desarrollado para el laboratorio biomédico:
Chips de ADN microcapilares electroforesis en genómica - Estas matrices se construyen
mediante el uso de micromecanizado de superficie en vidrio, plástico o silicona, para crear
de una red de capilares y los embalses. La aplicación de un voltaje a través de esas reser-
embalses hace que el líquido fluya a lo largo de la microcapilares. Analitos como disuelto
fragmentos de ADN pueden ser separados de acuerdo a su movilidad electroforética (en función
de la longitud del fragmento). Embalses conectados por intersección de micro-capilares permiso
de la dirección del flujo de la solución y por lo tanto, el procesamiento de analitos específicos de
sus respectivas "estaciones de química".
Chips de PCR para la genómica - Estos dispositivos de mayor análisis de ADN con in situ
PCR para el ADN amplification.68
Chips de electroforesis microcapilares para proteómica - Estos dispositivos permiten la
separación electroforética de las proteínas combinadas con la detección de espectrometría de
masas a través de un microfabricated fuente de ionización electrospray. Al igual que con
microarrays de proteínas
© 2005 by Taylor & Francis Group, LLC
La manipulación de
fluidos y de partículas
Presión impulsada Preparación de la muestra
electrocinética flujo de control Extracción de
de flujo de control de sonicación
electroosmótica Preconcentration
Reactores y
mezcladores
Micromixer reactor
químico reactor
enzimático
Separacion Reactor de
Cromatografía de Inmunoensayo
electroforesis Postcolumn etiquetado
Isoelectroenfoque
Difusion
Deteccion
Fluorescencia
Nonfluorescence óptica
measurement
Figura 4.7 Las tecnologías clave y los componentes que deben ser incorporados en µ TASS. (De Lee,
S.J. y Lee, S.T. Biot Appl Microbiol 64: 289-299, 2004. Con el permiso )
VI. BIOINFORMÁTICA
A. Enfermedades Genéticas
B. Cancer
1. La cantidad de tejido tumoral necesarias para realizar un experimento conjunto de ADN (100 mm3)
suele ser demasiado grande para ser obtenidos a partir de tejidos fijados en formalina. Las muestras
tumorales complemento congelados en nitrógeno líquido inmediatamente después de la resección
quirúrgica para evitar la degradación del RNA son ideales necesarios, pero a menudo son difíciles
de obtener debido a las limitaciones presentes en los quirófanos. Por otra parte, las biopsias
destinados para el estudio tienden a ser pequeñas, cada vez más con la detección precoz del cáncer y
los métodos de biopsia mínimamente invasivo utilizado en la actualidad.
2. Identificación de potenciales, la recogida y almacenamiento de tejidos de alta calidad están a menudo
ausentes o mal organizado. Esto hace que sea especialmente difícil hacer comparaciones válidas de
los datos de diferentes hospitales o grupos de investigación. Otro cación es el hecho de que la
calidad del tejido puede variar entre localidades (incluso entre los laboratorios en la misma
institución) y la calidad de los ácidos nucleicos, en particular de ARN extraído de tejidos puede
variar enormemente. Además, la información clínica relevante sobre los tejidos y las muestras
pueden ser difíciles de obtener en forma retrospectiva a causa de registro incompleto de
mantenimiento de confidencialidad del paciente y de las cuestiones lidad.
3. Problemas de selección de la muestra. Los tumores suelen representar mezclas heterogéneas de
diferentes tipos de células, incluidas las células malignas con diferentes grados de diferenciación-
ciones, los elementos del estroma, vasos sanguíneos y células inflamatorias. De dos tumores en
estadios clínicos similares pueden variar mucho en el grado y la proporción relativa de los diferentes
tipos de células respectivas. Los tumores de diferentes grados pueden diferir en los patrones de
expresión génica y marcadores de diferentes pueden ser expresados por células malignas o por otros
elementos celulares. Esta heterogeneidad puede complicar la interpretación de la expresión génica
de estudios.
D. Tipificación de tejidos
E. Enfermedades Infecciosas
El diagnóstico y la epidemiología de las enfermedades infecciosas son adicionales en las zonas
microarrays se han aplicado y ofrecen beneficios de los métodos para la identificación
microbiana future.3Classical son a menudo complejos y con el tiempo suming y su sustitución
por la pantalla multiplex rápido y muy sensible-ción ensayos es un objetivo importante de la
microbiología clínica y laboratorios de salud pública. Con el creciente número de genomas
microbianos han sido secuenciados, nuestras opciones para el análisis 12detallado de las
enfermedades infecciosas y sus causas se han multiplicado exponencialmente.
REFERENCIAS
Nano-componentes habilitados y
Sistemas para Biodefensa
Calvin Shipbaugh, Philip Antón, Gabrielle Bloom, Brian Jackson, and Richard Silberglitt
ÍNDICE
I. Introducción
II. Sensor de componentes de Nano-Biodefensa habilitado
A. Importancia de la Información en Biodefensa y Características del sensor
III. Nanosensores habilitado para las exposiciones de seguimiento
A. nanosensores habilitado para la Supervisión de exposiciones Airborne
1. Biosensores
2. Nariz Electrónica
B. nanosensores habilitado para las exposiciones de contacto de seguimiento
1. Microcantilevers para Biosensibles
2. Las nanopartículas y nanocristales
3. Funcionalizados nanotubos y nanocables
IV. Nanoescala componentes de los sistemas de detección
A. nanolitografía de Moléculas Biológicas y de Materiales de detección
B. nanopartículas matrices en superficies
C. Funcional nanoestructuras tridimensionales
D. Impresión Molecular: Construcción de Reconocimiento de Elementos a
nanoescala
V. Modificaciones de los sistemas naturales a escala nanométrica para detectar
A. Phage Display.
B. células enteras Sensing Systems
I. INTRODUCCIÓN
Las clases de productos que se aplican estrictamente para biodefensa también puede ser útil
contra diversas amenazas basadas molecular (por ejemplo, agentes químicos), así como las
amenazas biológicas. Este capítulo revisará muchos ejemplos de que la nanotecnología puede
dar lugar a los componentes y sistemas - incluyendo los métodos basados en los componentes
biológicos con aplicaciones prácticas para la defensa de la salud humana, la seguridad contra la
guerra biológica o el terrorismo, la agricultura y el medio ambiente. Figura 5.1 ilustra que la
respuesta requiere de varios pasos comenzando por el sensor y la secuencia de caracterización.
La naturaleza molecular de las toxinas químicas y materiales biológicos peligrosos, la
nanotecnología hacer una elección obvia para el desarrollo de defensas para contrarrestar estos
peligros. Figura 5.2 caracteriza a los beneficios potenciales de la nanotecnología.
Se hizo hincapié en que muchas rutas conducen a la nanotecnología y el campo, no incluya un
enfoque único. Por un lado, a partir de técnicas bien conocidas, como la elaboración de la
microelectrónica, con características cada vez más pequeños podrán formar parte del
Event
•Más rápido y más seguro •Acceso más rápido a más •Una mayor disponibilidad de
detección de información de calidad información necesaria para
orientar las actividades de
respuesta
Event
Figura 5.2 Beneficios del uso de la nanotecnología para contrarrestar las amenazas de.
proceso de desarrollo. Sin embargo, las recientes innovaciones como el trabajo con deoxyri -
ácidos bonucleic (AND) representan pasos importantes en el uso de la nanotecnología para
ampliar los límites del diseño conceptual y la experimentación de laboratorio relacionados con
la bio-sensores de defensa. La nanotecnología puede evaluar y manipular las moléculas, sino
que involucra a más de los componentes moleculares.
La nanotecnología aplicada a la defensa contra agentes químicos y biológicos relevantes
para la salud humana y la agricultura implica diversos tipos de componentes con características
medidas en una escala de menos de 100 nanómetros (nm). Sin embargo, el desarrollo de
sistemas específicos en el ámbito de equipos de defensa biológica no se limita sólo a los
componentes de este tamaño muy pequeño. Integración de los detectores, estruc-turas de apoyo,
y la electrónica en general, implicará componentes a través de las escalas de tamaños diferentes.
En particular, el uso directo de los sistemas microelectromecánicos (MEMS) y la
adaptación de sistemas similares a nanoescala a menudo será una característica de los enfoques
de defensa biológica. Nano-enabled microsistemas y macrosistemas deben incluirse en una
discusión sobre el uso de la nanotecnología para la defensa biológica.
Nanofabricación de las partes tendrá que obedecer a muchos de los principios comunes
a la industria más grande del sistema, como el suministro de electricidad y canales de
comunicación dentro del sistema, pero también tendrá que adaptarse a las ventajas y desventajas
inherentes en el desarrollo de componentes pequeños o componentes que emplean mecanismos
biológicos. Las ventajas potenciales de la nanotecnología son (1) la selectividad de
reconocimiento molecular, (2) reducción de los umbrales de sensibilidad de detección, incluidas
las actividades encaminadas a la detección de una sola molécula en algunos casos, (3) el uso de
de los sistemas de vida y de las funciones establecidas para la detección de las capacidades (por
ejemplo,
\
Nanoescala Componentes
DAÑOS AMBIENTALES
ENFERMEDADES SENSORES
INFECCIOSAS Y Sensible y selectivo para la identificación distribuido
OTROS PROBLEMAS DE ampliamente y Barato Interconectado con Alerta /
SALUD CONTAMINACIÓN Sistema de Respuesta
DE LOS ALIMENTOS
MATERIALES
TERRORISMO Impermeable a la descontaminación de agentes
peligrosos / Proporcionar Therapeutics Habilitar
Sensores (Estructura)
BIOLÓGICA Y
GUERRA QUÍMICA
Habilitadores
COMUNICACIONES
PANTALLAS MEMS
PLATAFORMA DE
MICROPROCESADORES
Figura 5.3 La lucha contra las principales amenazas con los componentes a
nanoescala.
Para hacer frente a las posibles amenazas planteadas por agentes biológicos y químicos, un
elemento clave en cualquier estrategia de defensa biológica es la capacidad para recopilar
información.
\
Exposiciones Airborne
Nanoestructurados Films Óxidos de Nanoestructura en la detección de
superficie Microarrays Combinatoria Componentes de dimensión nanométrica en MEMS
matrices Sensores de masa resonante La medición de los cambios de frecuencia de
resonancia debido a la absorción molecular
Biosensores Encuadernación anticuerpos para fibra óptica
Las narices electrónicas Ampliando temple cromóforo; poliméricos películas
delgadas; nanoclusters Oro; ondas acústicas de
superficie
Esta sección proporcionará un debate generalizado de los sensores de fase gaseosa y sus
diversas aplicaciones. En un informe de la Sociedad Americana de Vacío (2002), Baker et al.
examinó el uso de películas nanoestructurados para la adsorción de gases, desorción, o de
reacción para generar cambios mensurables en la conductancia eléctrica. Tamaño de las
partículas y la estructura de la superficie afecta a la quimisorción y las propiedades eléctricas de
las películas, y diversos óxidos nanoestructurados debe ser depositado en la superficie de
detección (Panchapakesan et al., 2001). Microheating una superficie del sensor aumenta el
rendimiento del sensor de (Semancik et. Al., 2001). Otros efectos del sensor se prevén a través
de la utilización de diferentes materiales nanoestructurados. Métodos de microarrays
Combinatoria fueron empleados por el Departamento de Energía de EE.UU. para la detección
de residuos peligrosos.
1. Biosensores
2. Nariz Electrónica
La nariz artificial o electrónica, actualmente en desarrollo está destinado a servir el mismo
propósito que un canino de los animales (u otros) en el servicio de detección de explosivos o de
otras clases de productos químicos peligrosos (Yinon, 2003). Esta tecnología va a dar lugar a
métodos más seguros de la búsqueda de las minas terrestres, las bombas terroristas, las drogas,
la industria accidental emisiones de sustancias químicas de prueba, y la presencia de cualquier
sustancia química peligrosa. El uso de la microtecnología y nanotecnología (si es rentable)
permitirá que la miniaturización continua y amplia distribución de esta clase de detector de
tradiciones más allá de los usos tradicionales con el despliegue de detectores móviles, tales
como los espectrómetros de masa o de cromatógrafos de gas. Yinon se describen algunos
ejemplos en los que la nariz electrónica puede basarse. Además de los MEMS, que analiza
cuatro enfoques basados en la nanotecnología: ampliación de enfriamiento cromóforo,
poliméricas delgado, nanoclusters oro, y ondas acústicas de superficie (SAW). Otros métodos
también pueden ser desarrollados.
El propósito del detector de temple es aumentar la sensibilidad a las reacciones a
determinadas clases de moléculas de vapor, causando la absorción de un fotón único para
establecer una reacción en cadena en una secuencia de cromóforos. Trinitrotolueno (TNT) y
otros nitrocompounds se citan como ejemplos de moléculas que pueden ser detectados, y
claramente esto es de aplicación a los problemas de detección de minas terrestres y las
municiones sin explotar-UNEX. Como señala Yinon, las Naciones Unidas se refiere a la
enorme cantidad de minas terrestres abandonadas en muchos países.
Yinon se refiere a una clase de películas delgadas que los cambios de uso de la resistencia
para detectar moléculas absorbidas en un conjunto de polímeros (Lewis, 1995). Es de interés de
que este método utiliza múltiples sensores y análisis de redes neuronales para identificar los
vapores. El desarrollo de hardware no es el único esfuerzo importante y necesario para hacer
que el trabajo y la nanotecnología. El desarrollo de software también es vital, especialmente
porque numerosos sensores y tipos de sensores pueden tener que actuar juntos para discriminar
y medir la contaminación. Cyrano Sciences, Inc., de Pasadena, California, desarrolló las narices
electrónicas comerciales basadas en películas de polímero compuesto de nanopartículas de
carbono que se están probando actualmente en las solicitudes de biodefensa
(www.cyranosciences.com).
Los dispositivos de Nanocluster descrito por Yinon también hacen uso de las propiedades
eléctricas como la resistencia y conductividad. Las partículas de oro utilizado en los dispositivos
de detección de vapor son descritos como menores de 5 nm de diámetro y rodeado de
© 2005 by Taylor & Francis Group, LLC
de una sola capa depósitos orgánicos. Es importante señalar que se consideró que ser capaz
de detectar muchas clases de vapores incluidos los de una serie de explosivos.
Dispositivos SAW utiliza una sustancia piezoeléctrico sobre el que una onda acústica que se
genera por un campo eléctrico, viaja a lo largo de la superficie, y es afectado por los vapores
presentes. Esta interacción puede ser detectada y analizada. Estos tipos de detectores han sido
objeto de numerosos estudios y se puede utilizar para la búsqueda de explosivos y materiales
peligrosos. Yinon concluye que los muchos tipos de detectores de ahora en desarrollo pueden
aplicar a través de un amplio conjunto de problemas. La amenaza del terrorismo con las armas
convencionales hace que el desarrollo de pequeños y baratos y detectores de explosivos que
pueden ser producidos en masa de gran interés. Las mismas clases de sensores que protegen
contra agentes químicos y biológicos pueden ser utilizados para la detección de moléculas de
explosivos. Protección de los aviones contra las bombas de contrabando es otro claro ejemplo
donde los detectores diseñados para recoger los explosivos son de interés. Una pregunta
importante para considerar si los detectores en los puntos de control podría reducir la incidencia
de los terroristas suicidas que proceder a través de las áreas públicas. La manera en que los
sensores se despliegan, así como sus limitaciones técnicas deben ser considerados para la
viabilidad de uso en cualquier escenario.
La detección e identificación de agentes patógenos y los agentes biológicos en general,
también se puede realizar con una nariz electrónica, como se indica en el análisis anterior de los
biosensores. Esto ha sido demostrado con la discriminación entre las bacterias anaerobias
cultivadas in vitro (Pavlou et al., 2002). Multisensor matrices que contienen polímeros
conductores se utiliza para detectar los gases. Una vez más, este método de detección empleado
redes neuronales. Otras técnicas son, por supuesto, también aplicable a la detección de
organismos y pueden tener sus propias ventajas (por ejemplo, espectrometría de masas puede
utilizarse para identificar las especies de).
Los polímeros conductores han sido utilizadas para discriminar los aromas del vino
(Guadarrama et al., 2001) y sugiere este ejemplo nanosensores podrían conducir finalmente a la
caracterización de los alimentos es decir, determinar cuándo un alimento ha ido mal. La
preservación es un objetivo más ambicioso y requiere de detección para detectar los procesos
antes de su deterioro.
Basado en MEMS narices uso voladizos que responden cuando se expone a Ana gaseosos
lytes. Un arreglo de tales usos de la inflamación de una o más capas de polímero como un
indicador para la detección mediante mediciones ópticas de la desviación (Baller et al., 2000).
Los experimentos con estos dispositivos investigó la detección de moléculas orgánicas como el
metanol, tolueno y etanol y se discutirá más adelante.
Amenazas biológicas y toxinas inorgánicos (o explosivos en el caso del terrorismo) no son
los únicos peligros que se pueden detectar con dispositivos que operan en la nanoescala.
También es posible detectar la presencia de materiales radiactivos con voladizos que se
mantienen a una distancia de unos pocos nanómetros de una superficie metálica con aislamiento
(Thundat y Brown, 2002). Las partículas alfa pueden ser detectados como resultado de la
acumulación de carga o cambio de frecuencia. Este método puede ser muy sensible. Partículas
alfa solo se han detectado. El tiempo requerido para la detección se puede mejorar con el uso de
detectores de gran superficie. La técnica podría ser útil en la detección de muchos tipos de
actividades de bajo nivel de toma de muestras de gas, pero las partículas alfa tienen un alcance
muy corto y no penetran mucho, así que el método no detecta radiactividad que está contenida,
o protegidos por el suelo u otros factores. Los vapores de un material contaminado se sospecha
son necesarios o un detector debe ser demostrado que es capaz de medir otras partículas más
penetrantes como los rayos gamma.
© 2005 by Taylor & Francis Group, LLC
La detección sensible de bajo nivel de contaminación radiactiva es de interés. Algunos sitios
peligrosos contienen toxinas químicas o biológicamente peligrosos materiales y residuos
radiactivos. En estos casos, es importante ser capaz de detectar la radiación, mientras que la
detección de moléculas. Algunos ejemplos son los intentos de rehabilitación y contención de las
zonas afectadas como resultado de las actividades de las industrias de la energía nuclear,
laboratorios de investigación, los programas de armas, y de los desechos médicos radiactivos.
Fur-hay descripciones del uso de matrices de voladizos para detectar las biomoléculas a través
de la utilización de los medios de contacto con el líquido aparece en la siguiente sección.
* Cabe señalar que la distinción aquí entre los sistemas de sensores individuales y ambientales no es del todo una
limpia. En muchos casos, los sensores que sería aplicable a la medición de la presencia de agentes biológicos o
químicos en el aire ambiente (una aplicación ambiental para efectos de esta discusión) podrían ser aplicadas a la
vigilancia de una persona y las necesidades de una tecnología un tanto diferente aplicación tecnológica. Del mismo
modo, muchas de las tecnologías que consideramos individuales (por ejemplo, sensores de nanocables) podría
aplicarse también en las aplicaciones de medio ambiente. La distinción fue elaborado principalmente por razones
de organización y, aunque imperfecto, es útil para ese propósito.
** Uno de los problemas potenciales en la comprensión de las nanotecnologías biodefensa es establecer la distinción
de lo que es aceptado como la nanotecnología. Sin embargo, para efectos de la utilidad operativa de los dispositivos
que se produjo este será a menudo una cuestión de semántica.
Los científicos han estado usando voladizos microfabricados como sondas vigor en
microscopía de fuerza atómica (AFM) para varios años. De la extrema sensibilidad de las
sondas ha impulsado la investigación sobre la incorporación de estas estructuras en biosensores.
Estudios recientes reportan éxito en la detección de la unión de los analitos biológicos en la
superficie de la microcantilevers que hacen pequeños cambios conformacionales en el microcan
estructura tilever. Dependiendo del tipo de analito para el cual está diseñado el dispositivo, la
magnitud del cambio conformacional, y de la sensibilidad y la especificidad de la estructura
microcantilever, estos sistemas son útiles para diversos tipos de biosensores que las
herramientas pueden ser críticos en los esfuerzos de defensa biológica.
Microcantilevers son diminutas placas o de las estructuras de la hoja, por lo general la
medición de 0,2 a 1,0 µ m de espesor, 20 a 100 µ m de ancho y 100 a 500 µ m de largo. Un
extremo está conectado a un soporte. Con el fin de hacerlos útiles como sensores biológicos, las
placas, generalmente de silicio, están recubiertos por una cara con un material diferente que
puede ser-zado en función de diversas maneras. Idealmente, cuando se exponen al analito de
interés, la función del lado tucionalizado será sometido a estrés inducido por cambios
conformacionales, mientras que el otro lado no se ve afectada, dando lugar a la desviación de
placas.
De tres mecanismos de analito inducida por tensiones se han descrito (Sepaniak , et al., 2002): la
compresión tensiones causadas por la expansión física de la
\
A. Mostrar Phage
Las técnicas de fagos desarrollado por los investigadores para uso en biosensores explotar
algunas de las características actuales de la fisiología y los ciclos de vida del fago. Fagos,
bacterias o virus pueden expresar las proteínas que contienen los sitios de unión específica a las
moléculas particular, sobre su superficie externa. Mediante el control que se expresan las
proteínas, los científicos son capaces de diseñar sondas moleculares muy específicas. Una vez
expuesto a las técnicas de una muestra, cualquier fago proteínas de la superficie cuya específicos
a los péptidos o antígenos en la muestra puede ser aislado a través de la afinidad de laboratorio y
la separación.
Se revisan a continuación tres clases de materiales que pueden contribuir a estas funciones,
a veces en más de una forma a la vez: nanofunctional fibras, tejidos, membranas y textiles,
polímeros conductores y nanodecontaminantes.
C. Descontaminantes Nanotecnología
Un taller celebrado recientemente por la Sociedad Americana de Vacío (AVS), bajo los
auspicios de los EE.UU. National Nanotechnology Initiative (AVS, 2002) describe dos
enfoques diferentes para la descontaminación de nanomateriales agente CB: (1) el uso de
nanopartículas y (2) la colocación de trampas de materiales nanoestructurados en el interior de
las redes de transporte de alta porosidad. El enfoque de las partículas de nanoescala se
aprovecha de la mayor área de superficie y la presencia de un mayor número de sitios de
reacción en las superficies de óxidos metálicos sabe que reactividades a los agentes de CB. Por
ejemplo, los polvos de óxido de magnesio y óxido de aluminio con diámetros de de unos pocos
nanómetros preparado a través de un método de aerogel se han demostrado tanto en polvo seco
y derivados halogenados formularios a los biocidas de alta eficacia (Koper et al. 2002). Óxido
de magnesio Nanotecnología también se ha demostrado que reaccionan fuertemente con
agentes de guerra química que les quiten la toxicidad (Wagner et al., 1999). Un hallazgo
reciente se señaló en el taller de AVS es que las combinaciones de nanoescala polvo de óxido
de magnesio y reactividad del óxido de aluminio reforzada contra sustitutos agentes de guerra
química, en comparación con el utilizado solo o en polvo.
\
Un microchip biodegradables, utiliza una mezcla de dos polímeros con diferentes tasas
de hidrólisis para formar las membranas que los pulsos de liberación de fármacos a través del
tiempo (Richards-Grayson et al., 2003). Se ha sugerido que el siguiente avance en estos
sistemas puede ser el inicio de la liberación de la droga de un implante en respuesta a utilizando
un biosensor un láser, ultrasonido, o radio-frecuencia del pulso como un disparador (West,
2003). Si un dispositivo de activación se incorporó a un correo de material textil, como una de
las prendas de órgano de control descritos anteriormente, y junto con un polímero de conductos
de sensor de CB, la cadena de detección, tratamiento, y las respuestas de protección puede ser
imaginado.
De alimentación para dicho dispositivo puede ser suministrado por fina película de
microbaterías de iones de litio (www.itnes.com), tal vez se deposita en las fibras. Éxito de la
integración de cada una de estas funciones y dispositivos presenta muchos problemas, pero el
hecho de que el estado de la técnica en los componentes separados se está desarrollando
rápidamente sugiere que bien puede ser una meta digna (ver LaVan et al., 2003, por un resumen
de los últimos avances en micro y nanoescala en los sistemas de suministro de fármacos in vivo,
y Zaugg y Wagner, 2003, para el desarrollo de métodos para la fabricación a gran escala el uso
de biochips de chorro de tinta de impresión).
VIII. PERSPECTIVAS
A. Potencial de la nanotecnología
C. Conclusiones
Ineke Malsch
ÍNDICE
I. Introducción
II. Tendencias mundiales en Salud, Cuidados, Necesidades
A. Sociales y daños económicos causados por la enfermedad
B. Enfermedades
1. Enfermedades Infecciosas
2. Cáncer
3. Enfermedades Cardiovasculares
4. Otras enfermedades
C. Discapacidad
1. Ceguera y Impedimentos Visuales
D. Discusión
III. Health Care Systems: Tendencias y Economía
A. Cuidado de la Salud de Mercado
B. Características de los Sistemas de Salud
C. Debate Mercados
D. Nanotecnología Biomédica de R&D
1. Pharmaceutical R& D
E. Medicamentos Huérfanos y Enfermedades Tropicales
1. Discusión
2. R& D de Dispositivos Médicos
IV. Beneficios sociales y éticos, legales y sociales de la Nuevas Tecnologías
I. INTRODUCCIÓN
En este capítulo sobre los aspectos sociales y económicos relacionados con la emergencia de la
nanotecnología biomédica, me tomo un ángulo diferente del resto de este libro. Parto de la
perspectiva de nuestra sociedad global y las necesidades para una mejor atención de salud asequible
y de la gente común en diferentes partes de nuestro mundo. A partir de ahí, yo zoom en las
prioridades de la investigación actual sobre nanotecnología para aplicaciones biomédicas-ciones.
Espero que la combinación de estas perspectivas llevará a entablar un diálogo constructivo entre los
investigadores de la nanotecnología, otros promotores de la ciencia y el público en general que
contribuyan a un desarrollo más eficiente de las aplicaciones biomédicas de la nanotecnología, que
puede resolver las necesidades reales de personas reales. También dibujar la atención de la salud y el
desarrollo de sistemas de tecnología que forman el contexto para el desa-rrollo actual y la eventual
utilización de las nanotecnologías biomédicas se ha descrito anteriormente en este libro. Porque soy
un europeo, mi análisis será más relevante para el contexto europeo, pero incluyen la información y
discusiones sobre los Estados Unidos (EE.UU.) y otros países.
El punto de partida de mi análisis es la necesidad más apremiante para la atención de la salud de
todo el mundo. Por lo tanto, tiene sentido llamar a la mente de las Naciones Unidas (ONU) de
Desarrollo del Milenio, que forman un marco global de acciones destinadas a cubrir esta necesidad.
En 2000, la Asamblea General de las Naciones Unidas adoptaron la Declaración del Milenio, los
países representados se comprometió a trabajar juntos para establecer un mundo más pacífico,
próspero y justo. Entre otras cuestiones, se fijaron ocho Objetivos de Desarrollo del Milenio
destinados a ser alcanzado en 2015.
Uno de los objetivos es detener y comenzar a reducir los spreads de VIH / SIDA, el paludismo y
otras enfermedades graves que afligen a la humanidad. Otro objetivo es desarrollar un mundial
Alentar a la industria farmacéutica a que los medicamentos esenciales más ampliamente disponibles y
pueden alcance de todas las personas que los necesitan en los países en desarrollo, para desarrollar
asociaciones con el sector privado y con organizaciones civiles en la búsqueda de desarrollo y erradicación
de la pobreza [y] para garantizar que los beneficios de las nuevas tecnologías, especialmente tecnologías de
información y comunicación ... están disponibles para todos los.1
1. Enfermedades Infecciosas
En cuanto a la situación de salud en el mundo desde un ángulo diferente, las enfermedades
infecciosas son amenazas muy reales para la vida y la salud de las personas en todas partes del
mundo. Mesa 6,1 listas de las enfermedades más comunes y el número de víctimas. VIH / SIDA,
que representa la cuarta causa principal de muerte - 2,9 millones de muertes en 2000,2 VIH es un
retrovirus o el tipo de ácido ribonucleico (ARN) del virus. El ARN es responsable de la expresión de
la proteína dentro de las células. La infección se transmite por contacto directo de fluidos corporales.
Las relaciones sexuales peligrosas y las transfusiones de sangre son las principales causas de las
infecciones. En la actualidad, los medicamentos que pueden controlar la enfermedad está disponible,
y esto permite a los pacientes a llevar una vida saludable por muchos años ya que sin el
medicamento. Lamentablemente, los medicamentos son muy caros y no están disponibles para la
mayoría de los pacientes en los países en desarrollo. No hay vacuna contra el SIDA o la droga para
curar el VIH / SIDA por completo está disponible todavía. En los países en desarrollo, el VIH /
SIDA, el paludismo, la tuberculosis y otras enfermedades tropicales a las víctimas muchos afirman y
conducir a pérdidas considerables de la renta nacional. Sólo el paludismo mata a 1 millón de
personas cada año e infecta a muchos more.3 La malaria es causada por protozoos, parásitos de los
animales y transmitida por mosquitos infectados. La enfermedad se ha erradicado en los países
occidentales por la eliminación de los mosquitos, la malaria, pero todavía es endémica en los países
en desarrollo en las zonas tropicales. La medicación disponible se compone de drogas fuertes
prescrito a los viajeros. Las poblaciones locales pueden proteger a sí mismos mediante el uso de
mosquiteros tratados con insecticida. La OMS y otras organizaciones son el intento-ción para
estimular la investigación para desarrollar mejores medicamentos contra la malaria.
En los países occidentales, las enfermedades como la gripe, la enfermedad del legionario, y anti-
bióticos de infecciones resistentes a muchas víctimas cada año, especialmente entre los enfermos y
ancianos. Los riesgos adicionales son la aparición de nuevas enfermedades y la abilityof
enfermedades existentes relativamente inocente a convertirse en variantes más letales. Esto ocurre
frecuentemente con las enfermedades animales que afectan a los seres humanos (zoonosis). Riesgos
continuos de las zoonosis están presentes en las zonas de ganadería intensiva. La encefalitis
espongiforme bovina forma (EEB o enfermedad de las vacas locas ") es un ejemplo de una zoonosis
que puede causar enfermedad de Creutzfeldt-Jakob en los seres humanos - una enfermedad mortal
que causa daño cerebral esponjosa. Entre 1996 y 2002, 139 casos fueron reportados en todo el
mundo y no existe cura hasta la fecha.4
Table 6.1 Las enfermedades y el número de víctimas de
Enfermedades La mortalidad anual Número de infectados Año Fuente
Hay que distinguir las enfermedades víricas y bacterianas. Las bacterias son
microorganismos vivientes. Son células completas que se pueden replicar, siempre y cuando se han
adecuado y suficiente suministro de alimentos. Los dos tipos de medicamentos capaces de combatir
las infecciones bacterianas son antibióticos específicos y amplios que los antibióticos son eficaces
contra varias infecciones diferentes. La necesidad de nuevas drogas antibacterianas continúa porque
las bacterias tienden a ser inmunes a los antibióticos. Un virus consiste en una cadena de ADN o
ARN que requiere una célula huésped para ser capaz de replicarse. Los medicamentos antivirales
desarrollados hasta la fecha son los inhibidores de la proteasa, que reducen la actividad de las
enzimas que replican las cadenas de virus. Un inhibidor de la proteasa pueden se desarrollará sólo en
la presencia de una proteasa viral específico el desarrollo de una proteasa toma unos 10 años antes
de que el producto puede entrar en el mercado. Por lo tanto, no es posible desarrollar rápidamente los
medicamentos antivirales contra las enfermedades emergentes, como desconocido como el SRAS.
La necesidad de unos amplios medicamentos antivirales que son eficaces contra los virus de
múltiples es especialmente urgente, en base a una entrevista con Willy Spaan 2 Semana de la
Química, de una revista neerlandesa de los químicos en la edición de abril de 2003. Como se señaló
anteriormente, la nanotecnología puede contribuir a colmar estas necesidades mediante la
incorporación de la genómica avanzada, la proteómica y las técnicas de descubrimiento de fármacos
en instrumentos de laboratorio y el desarrollo de mejores métodos de diagnóstico y más económico.
2. Cancer
3. Enfermedades Cardiovasculares
4. Otras enfermedades
C. Discapacidad
De todo el mundo, existen 180 millones de personas con discapacidad visual incluidos
alrededor de 40 las personas ciegas a 45 millones de dólares. La OMS estima que nueve de cada
diez personas ciegas viven en países en desarrollo. La ceguera puede ser atribuido a las cataratas
(opacidad de las lentes, 46%), tracomas (infecciones de los párpados, el 12,5%), inicio en la infancia
(3,3%), la oncocercosis (ceguera de los ríos, el 0,6%), y otras causas. Basado en una serie de factores
como el envejecimiento de la población, la OMS prevé que el número de personas ciegas a un total
de 100 millones en todo el mundo en 2020. Para invertir esta tendencia, la OMS ejecutó Visión
2020, un programa global que apunta a eliminar la ceguera evitable (alrededor del 80% del total) en
2020. Este programa está más preocupado con la construcción de instalaciones de atención de salud
para tratar a pacientes en los países en desarrollo y con la difusión de las tecnologías existentes que
con dispositivos futuristas tales como los ojos electrónicos.
\
Los intentos de desarrollar ojos electrónicos o de implantes de retina para restaurar la vista son
ONGO-Ing. El primer ojo electrónico experimental fue colocado en una persona ciega en 1978 por
el Instituto Dobelle. En 2002, el Instituto implantado ocho pacientes con versiones mejoradas de los
ojos electrónicos. La tecnología sigue siendo cruda, e incluye sensores en cristales, implantados
electrodos de platino, y un ordenador portátil con el proceso de signal.12 La tecnología es
experimental y sólo está disponible para los pacientes que pueden pagar. Algunos problemas de
seguridad también se han planteado. Otro método para curar la ceguera implica la nanotecnología.
Varios proyectos en curso en los EE.UU. y Alemania, la participación de grupos académicos y
las pequeñas y medianas empresas que trabajan en los implantes de retina y varias pequeñas
empresas que se han desarrollado implantes de retina y ahora están realizando ensayos clínicos de
sus sistemas. Las tecnologías actuales son todavía los microsistemas, sino que incluyen la
nanotecnología en elementos específicos, como electrodes.13 El Commer primera implantes social se
espera que en el mercado en 2008.
b. La parálisis y Prótesis
D. Tratamiento
La vida más comunes afecciones potencialmente mortales en todo el mundo son las
enfermedades cardiovasculares, el cáncer y las enfermedades infecciosas. Materiales
nanoestructurados pueden ser incluidos en el futuro en dispositivos médicos como los marcapasos y
los stents liberadores de fármacos para el tratamiento de las enfermedades cardiovasculares.
Actualmente, no existe cura para ciertas formas de cáncer y la quimioterapia y la radioterapia se usa
para tratar otros tipos de cáncer producen efectos secundarios graves. Entrega Nanodrug puede
ayudar a reducir estos efectos secundarios. Las nanopartículas aplicadas en nuevas técnicas de
imagen y los chips de diagnóstico pueden ayudar a identificar tipos de cáncer y otras enfermedades
en las fases tempranas del desarrollo para que puedan ser más fácil de curar. En general, la
nanotecnología puede contribuir a acelerar el desarrollo de nuevos compuestos activos de drogas
mediante la aplicación de lab-on-a-chip a las técnicas de cribado de alto rendimiento en la
Esta sección le tendencias bosquejo general en los sistemas de atención de salud en todo el
mundo como telón de fondo a la evolución de la nanotecnología biomédica. Las poblaciones de los
países occidentales y más avanzados de los países en desarrollo están envejeciendo debido a la
mayor renta per cápita y mejor calidad de vida. Las personas mayores tienden a sufrir más
enfermedades relacionadas con la edad, como consecuencia de que pasen a ser más frágiles y
necesitan más atención. Esto conduce al aumento de los costos de los sistemas de atención de salud.
Otro costo creciente tendencia surge del éxito de la tecnología farmacéutica y médica desarrollos. En
particular, el rápido progreso de la biotecnología, la genómica y la proteómica basada en la
investigación de compuestos y desarrollo de fármacos está llevando a la disponibilidad de
tratamientos para enfermedades que antes eran intratables. Esto aumenta el costo directo de atención
de la salud, porque los medicamentos tienen que ser pagados y son caros durante sus 20 años en el
mercado cuando todavía están protegidos por patentes. Las cuestiones emergentes son si estamos
dispuestos a pagar por todo lo que es técnicamente posible y, si no, ¿cuáles son nuestras prioridades
para el 21o siglo los sistemas de atención de la salud?
pacientes
Seguros Farmacéutica Médico y
Gobiernos Empresas Industrias Profesionales Consumidores Outsiders
Asegurar
Financiar la R&D
esfuerzos
C. Discusión
Los países desarrollados ofrecen las oportunidades de mercado aún más evidente para la inno-
vador productos para el cuidado de la salud, sobre todo porque el envejecimiento de la población de
consumidores de cuidados críticos y seguro de salud puede conducir a una mayor demanda de
productos farmacéuticos y dispositivos médicos que utilizan la nanotecnología. El mayor uso de la
nanotecnología y otras innovaciones en la atención de la salud puede verse obstaculizada si conduce
a costos crecientes. Los políticos y las compañías de seguros ya se enfrentan a decisiones difíciles en
las prioridades de atención de salud. La nanotecnología tendrá que competir con otras opciones
técnicas y no técnicas.
Las necesidades mundiales más urgentes para la atención de la salud existen en los países que
carecen de los niveles básicos de los sistemas nacionales de atención de la salud. Posibles soluciones
en esos países no se refieren a nuevos nanomateriales u otras tecnologías, sino que requieren
inversiones en los trabajadores de salud, hospitales, disponibilidad local de suministros suficientes de
medicamentos esenciales, y las medidas de saneamiento básico. Las excepciones en que la
nanotecnología biomédica puede ser útiles incluyen tecnologías de detección de alto rendimiento
utilizado para desarrollar medicamentos para combatir las principales enfermedades infecciosas y de
diagnóstico rápido y económico. La purificación del agua o la desalación también se pueden
beneficiar del uso de los nanomateriales, por ejemplo, para las membranas de ultrafiltración que
puede garantizar el suministro de agua potable y en última instancia, la población más saludable. Sin
embargo, la discusión de estas aplicaciones de la nanotecnología va más allá del alcance de este
libro.
\
1. Farmacéutica R&D
Hay dos mercados distintos para la nanotecnología biomédica de R&D. La primera y más
grande es el mercado de productos farmacéuticos de R&D. Este mercado está dominado por las
grandes industrias farmacéuticas que financian la mayor parte de los gastos de R&D de nuevos
medicamentos en casa y producir y vender los medicamentos después de que se les permita en el
mercado (Cuadro 6,3). Los gobiernos desempeñan un papel dual. Por una parte fundamental de que
la financiación en R&D e R&D relacionadas con las enfermedades huérfanas y demás que no son
blancos atractivos para las empresas farmacéuticas.
Los gobiernos también regulan el acceso al mercado de nuevos medicamentos y actuar
como que deciden acerca de la cobertura de seguro para esas drogas. Las caridades privadas y
nacionales de financiación de la investigación consejos de financiación de la investigación sobre
nuevos medicamentos y dispositivos biomédicos para el tratamiento de las enfermedades que son
sus prioridades, por ejemplo, las fundaciones de investigación del cáncer. Universidades, espe-
centros de investigación médica especializada, y hospitales universitarios llevan a cabo más
fundamen - tal investigación sobre nuevos medicamentos. Durante la última década o menos, un
número de PYME que han actuado como intermediarios entre estas instituciones y las industrias
farmacéuticas. Ellos tienden a tomar los resultados patentados de la investigación académica más
hacia los nuevos medicamentos o tecnologías de detección de drogas. Las PYME y algunas grandes
empresas a desarrollar los productos, a continuación, producen y los venden o grandes empresas
pueden recoger dicha tecnología, si tiene éxito. Las patentes son partes vitales de los mercados
farmacéuticos de R&D. Como resultado, las organizaciones de patentes, los abogados y asesores
son también actores importantes.
a. Patentes
1. Discusión
En el mercado de I& D farmacéutica, los EE.UU. y Europa compiten para atraer a las
compañías farmacéuticas y fomentar el desarrollo de medicamentos innovadores. Los gobiernos de
ambos lados del Atlántico invertir en desarrollos de nuevos medicamentos incluyendo medidas para
la prestación nanodrug y cribado de alto rendimiento. Los gobiernos europeos y la Comisión
Europea también están preocupados por la aceptación pública de nuevas tecnologías, incluidas las
drogas. La inversión en la cura de enfermedades tropicales es una nueva prioridad en la financiación
por la Comisión Europea y los gobiernos nacionales de los países occidentales.
Una amplia gama de productos: ayudas para los discapacitados, los dispositivos implantables activos;
ANAES-thetics dispositivos de las vías respiratorias; imágenes dentales dispositivos electromédicos,
equipos hospitalarios (hard-ware), dispositivos de diagnóstico in vitro, aparatos de oftalmología y óptica,
pasivo implantable dispositivos de un solo uso (desechables) dispositivos quirúrgicos (reutilizables) los
instrumentos
La asociación calcula que el mercado mundial de tecnología médica a 170 mil millones
dólares en 2001. En 2002, el gasto ascendió a 54,8 mil millones dólares en Europa, 79,3 mil
millones dólares en los EE.UU., y 20,1 mil millones dólares en los Japan.22 crecimiento del mercado
es de 5 a 8% por año. El mercado está dominado por 94% de las pequeñas y medianas empresas,
cada uno especializado en un nicho de mercado.
© 2005 by Taylor & Francis Group, LLC
Europa cuenta con 9.345 empresas de dicho tipo que más del 80% son PYME. Los EE.UU.
tiene 10.000 empresas, entre ellas 98% de PYMEs. Japón tiene un total de 1.580 panies.22
Como se señaló anteriormente, los gobiernos financian la investigación fundamental. regular el
acceso al mercado, y determinar que las nuevas tecnologías será reembolsado por el seguro de salud
pública. Reglamento de acceso al mercado no es tan estricta o bien definidos como lo es para los
productos farmacéuticos. En Europa, tres directivas regulan el acceso al mercado de dispositivos
médicos. Estos dispositivos médicos se definen como sigue:
Cualquier instrumento, dispositivo, equipo, material u otro artículo, utilizado solo o en combinación, incluidos
los programas informáticos necesarios para su buen funcionamiento, destinado por el fabricante a ser utilizado
en seres humanos con fines de: diagnóstico, prevención, control, tratamiento o alivio de una enfermedad,
diagnóstico, control, tratamiento, alivio o compensación de una lesión o discapacidad; investigación, sustitución
o modificación de la anatomía o de un proceso fisiológico, el control de su concepción y que no ejerza la acción
principal en o sobre el cuerpo humano por medios farmacológicos, inmunológicos ni metabólicos, pero que
pueden ser asistido en su función por tales medios.23
Directiva de 1990 sobre productos sanitarios implantables activos (AIMDD) — Cubre los
dispositivos médicos (1) para su funcionamiento basándose en las fuentes de energía eléctrica o de
energía distintos de los directamente generados por el cuerpo humano o por la gravedad, y (2)
destinado a ser introducido total o parcialmente, mediante intervención quirúrgica o médica, en el
cuerpo humano o por la intervención médica, en un orificio natural, y espera que se mantenga
después del procedimiento. Productos típicos cubiertos son los marcapasos, bombas de difusión para
aplicaciones de oncológica, y los implantes cocleares.24
Directiva de 1998 sobre diagnóstico in vitro de Dispositivos Médicos (IVDD) — Covers any
dispositivo médico que es un (1) reactivo o producto reactivo, (2) calibrador, material de control,
o el kit, (3) instrumento, aparato, equipo o sistema, utilizado solo o en combinación, destinado por el
fabricante a ser utilizado in vitro para el examen de especímenes, incluyendo donaciones de sangre y
tejidos, procedentes del cuerpo humano, sólo o principalmente con el propósito de proveer
información (1) relativa a un estado fisiológico o patológico o anomalías congénitas, (2) para
determinar la seguridad y la compatibilidad de dispositivos con potencial beneficiarios, o (3) para
supervisar medidas terapéuticas. Típica in vitro cubiertos incluyen reactivos para determinar el
embarazo la minería, los reactivos para el diagnóstico de SIDA, reactivos para la determinación de
grupos sanguíneos, reactivos para la determinación de la hepatitis, y los recipientes de muestra para
la contención y la preservación de muestras humanas.25
Directiva de 1993 sobre dispositivos médicos (MDD) — Esta directiva se refiere a los
productos sanitarios no sujetos a la AIMDD o la IVDD incluyendo hospitales y equipos de
odontología, audiometría dispositivos, aparatos oftalmológicos, nonimplant implantables y prótesis
de poder, materiales ortopédicos internos y externos, las ayudas para los discapacitados, y los
materiales desechables.
a. Entrega Nanodrug
Un gerente de producto de obras para una PYME que los diseños de superficies
nanoestructuradas para el manejo de pequeños volúmenes de líquidos para el bioanálisis y de
diagnóstico. Las aplicaciones de la R&D en esta empresa son los diagnósticos, el descubrimiento de
fármacos, y el laboratorio digital-en-un-chip de plataformas. Fuera de los usuarios no participan en el
seguimiento de los progresos de la investigación. El tiempo en el mercado es de 3 meses a 2 años.
La investigación abarca la producción experimental, optimización, y la prueba de principio de
biochips. Los usuarios finales de productos de la compañía son las organizaciones de investigación
por contrato y las compañías farmacéuticas. La motivación de estas actividades es económica: "La
genómica y la proteómica son las tecnologías de futuro que cada vez más importante. Análisis y
manejo de pequeñas cantidades de líquidos con alto rendimiento y de alta sensibilidad potencial, son
los grandes retos. Es una zona con potencial de mercado muy alta y una gran variedad de
aplicaciones posibles.”
3. Discusión
B. Principales cuestiones
La mayoría de los investigadores que trabajan en los laboratorios no están acostumbrados a
pensar en las implicaciones sociales de su trabajo y carecen de las habilidades y conocimientos para
abordar eficazmente las preocupaciones del público en general. No está claro que el incipiente
debate sobre la ética y los aspectos sociales de la investigación darán lugar. En esta sección se
discuten algunos posibles temas para el debate. Algunos de los beneficios sociales previstos y los
aspectos éticos, legales y sociales relacionados con la I tecnología farmacéutica y médica y el
desarrollo en general y la biomédica en particular, la nanotecnología también está cubierta.
1. Oportunidades
Reducir los efectos secundarios de los tratamientos, especialmente la quimioterapia — Este
poten-cial beneficio se suele citar como una base para mejorar la prestación de medicamentos contra
el cáncer. El beneficio también se puede aplicar en otras situaciones tales como la administración de
fármacos dirigidos a ayudar a prevenir los efectos secundarios derivados del uso de varios
medicamentos al mismo tiempo. Sistemas de suministro de drogas para el tratamiento de la hepatitis
C y las infecciones intestinales también están en desarrollo. El uso potencial de las partículas
magnéticas a los tejidos cancerosos de destino y la aplicación de
de un campo electromagnético para destruir las células cancerosas por calentamiento a nivel local
son complemento de otros métodos posibles que pueden mejorar los efectos de la quimioterapia,
aunque no son eficaces como independiente curas.
Más rápido y más inteligente de selección de los compuestos activos de drogas — Esta es
una tendencia general en el cribado de alto rendimiento y diseño de control de las moléculas de
drogas. Mejorar la calidad de vida de los pacientes con discapacidad con prótesis e implantes
— Ciertos tipos de prótesis e implantes pueden crecer en el cuerpo e imponer menos riesgos de
rechazo. La nanotecnología o la ingeniería de tejidos puede ayudar a la parálisis eventual-aliado de
curación, daño cerebral y enfermedades del sistema nervioso central
mediante la restauración de las neuronas.
More el diagnóstico oportuno de las enfermedades es mejorar las oportunidades para tratar
con éxito-ción — Este beneficio potencial es citado con frecuencia. Luego, el presidente Bill
Clinton mencionó
en su anuncio de la Iniciativa Nacional de Nanotecnología en 2000. Nano-tecnología es uno de los
miembros de un grupo de tecnologías convergentes que ayudará a desarrollar nuevas pruebas de
diagnóstico para el cáncer y las alternativas para sustituir a las actuales técnicas de exploración como
los rayos X y resonancia magnética nuclear.
Seguimiento ins nucleares, biológicas y agentes de guerra química y otros-tox — Véase el
capítulo 5 de este libro, para una discusión sobre el uso de la nanotecnología para supervisar los
materiales tóxicos en el medio ambiente y en el cuerpo humano.
2. Desafíos
De seguridad de nuevos fármacos, los implantes y órganos artificiales — Los dispositivos
médicos y los componentes activos de los nuevos medicamentos son controlados por la seguridad
antes de que se les permite
© 2005 by Taylor & Francis Group, LLC
en el mercado. Los nuevos medicamentos deben pasar una serie de ensayos preclínicos y clínicos
antes de la aprobación del gobierno se haya concedido. Después de la introducción del mercado, los
reguladores para controlar los riesgos de salud imprevistos. La Comisión Europea ha tomado nota
de que hay margen para la mejora y armonización de las prácticas nacionales de supervisión de
miembros de la UE states.20 Una nueva emisión derivados de los avances en la nanotecnología es la
des-aparición de la frontera entre los productos farmacéuticos y dispositivos médicos. Por ejemplo,
en caso de que los implantes liberadores de fármacos recubrimientos ser tratados como productos
farmacéuticos o productos sanitarios? ¿Puede un dispositivo médico con recubrimiento legalmente
ponerse en el mercado sin las pruebas que exige la presentación los productos farmacéuticos? Elimi-
ción de la prueba podría dar lugar a riesgos imprevistos. El problema puede requerir la adaptación de
la normativa vigente.
Costos de la atención de la salud y la tecnología biomédica - Estos costes deben ser
controlados. Social y las tendencias tecnológicas en los últimos años implican costos crecientes de la
atención de la salud en los países occidentales y señalan la necesidad de opciones en la cobertura de
seguro para los nuevos productos y en la financiación de la R&D de nuevas tecnologías. Los debates
acerca de cómo hacer que esas elecciones continuar. Algunos autores consideran que una evaluación
justa de la cobertura del seguro se ha de comparar las tecnologías establecidas y las nuevas
tecnologías. El principal argumento es que las nuevas tecnologías se espera que sea superior a los
mayores. Para dar cabida a este punto de vista, la Commission20 Europea tiene intención de aplicar
el concepto de "eficacia relativa" en la evaluación de tecnología sanitaria-gías en las políticas de
futuro, pero sólo después de que los medicamentos están en el mercado. Los principales criterios
para la evaluación de nuevos medicamentos y dispositivos médicos siguen siendo la seguridad, la
calidad y eficacia. "La eficacia relativa, tal como se aplica a las tecnologías de atención de la salud
como los medicamentos, tiene dos componentes: el valor terapéutico añadido (VTA) de un
medicamento(su eficacia clínica en comparación con otros tratamientos), y su rentabilidad, que se
basa en el VTA y que introduce la consideración del precio en la comparación. "20 La aplicación de
este concepto en las políticas europeas, podría acelerar el acceso al mercado biomédicas de la
nanotecnología y otras tecnologías médicas en Europa y también contribuir a la mejor y más costo-
efectivos o no. Los nuevos medicamentos y dispositivos médicos tendrían una mejor oportunidad de
competir con los productos obsoletos, pero bien establecido y los tratamientos.
La privacidad en relación a la información genética — Robert Rizzo30 predice que las pruebas
genéticas se utilizan de forma rutinaria por los médicos para determinar la dispo-siciones genéticas
antes de recetar tratamientos para los pacientes. En mi opinión, este escenario socioeconómico
pueden ser ayudados por la evolución de la nanotecnología de biochips y pruebas de diagnóstico
(véase el Capítulo 4, este volumen). Rizzo sostiene que la información genética, si se conserva, se
puede acceder por otras personas, incluyendo compañías de seguros que pueden verse tentados a
utilizar dicha información personal para decidir si se expide un seguro de salud a la persona
interesada. Rizzo señala que esto sería difícil de impedir a través de legisla-ción debido a la amplitud
de los intereses comerciales que participan en el mercado dominado por los sistemas de seguro de
salud, como las de los EE.UU. Por lo tanto, espera que obli sistemas públicos de seguro de salud a
Sory ser predominante en el futuro. En mi opinión, su argumento sobre la cadena causal entre las
pruebas genéticas y el sistema predominante de seguro de salud va en contra de la tendencia actual
en el mercado de los sistemas de seguro de salud basado en parte en una tendencia de globalización
en general en el que los sectores anteriormente públicos tales como infraestructura de transporte,
suministro de energía, y cuidado de la salud se están convirtiendo en
La Food& Drug Administration (FDA) regula los nuevos medicamentos y dispositivos médicos
en los EE.UU. La Shonin es el organismo regulador en el Japón. En la UE, el acceso al mercado de
nuevos fármacos ha sido regulada por la Agencia Europea de Medicamentos (EMEA) desde 1995.
La FDA ya la organización de conferencias y discusiones sobre los aspectos reglamentarios de la
nanotecnología médica. Antes de que un nuevo medicamento está autorizado en el mercado en
Europa, Japón o los EE.UU., la compañía farmacéutica en desarrollo que primero debe demostrar
que funciona y es seguro y no tóxico. La empresa debe realizar los ensayos preclínicos y
estandarizados en tres fases de ensayos clínicos del producto. Después de cada fase, debe presentar
los archivos y resultados de las pruebas a la FDA o la autoridad reguladora de otros. La FDA tiene la
más estricta las normas. Para los dispositivos médicos, un procedimiento similar se aplica antes de
que un dispositivo esté permitido en el mercado. En la UE, una designación CE está obligada a
demostrar que un producto cumple con la seguridad y funciona-miento de los requisitos de
conformidad con las tres directivas discutido anteriormente.
La nanotecnología puede exigir el desarrollo de la nueva normativa, ya que erosiona la frontera
entre los productos farmacéuticos y dispositivos médicos.
Existen varios métodos para llevar a cabo la evaluación de tecnologías participativas reunir a las
diferentes partes interesadas para discutir los posibles beneficios de la sociedad (éticos, jurídicos y
sociales) y las consecuencias potenciales. Uno de estos métodos es el consenso conferencia en la que
un grupo de laicos, se informa sobre una nueva tecnología, discutir la tecnología, y produce un
consenso sobre medidas de política pertinentes y deseada para guiar el desarrollo y las aplicaciones
de la tecnología. Los resultados se publicarán y pondrán a disposición de los miembros del
parlamento o de otras instancias decisorias. Con las conferencias de consenso fueron inventadas en
Dinamarca y también son populares en los Países Bajos. Si estas formas de democracia directa son
de utilidad depende del tipo de gobierno nacional. Otros métodos involucran escenarios o futuros
talleres para explorar el potencial de los acontecimientos. Estudios Delphi, en el que un grupo de
expertos se les pidió que calcularan el tiempo en que una tecnología es probable que para entrar en el
mercado, también se utilizan. En la primera ronda de los estudios Delphi, los expertos hacen sus
estimaciones indi-cerlo en forma manual, en la segunda ronda, todas las estimaciones de los
expertos son compartidas y el grupo se da la oportunidad de cambiar su estimación.
Uno de los problemas con las conferencias de consenso es si son representativos de la opinión
pública en un país en su conjunto. Otro problema es más relevante para la nanotecnología: en las
primeras etapas de desarrollo de la tecnología, es difícil imaginar lo que los futuros productos
pueden llegar al mercado. Es aún más difícil prever las posibles consecuencias de la sociedad y la
opinión pública el futuro. Por último, no es fácil motivar a la gente a pasar el tiempo discutiendo una
nueva tecnología, a menos que esté rodeado por una cuestión política que estimula el interés.
En el enfoque de evaluación de la tecnología constructiva seguida por el programa NanoNed en
los Países Bajos (2003-2007), que incluyen talleres de diálogo con los investigado-res y laicos,
llevan a cabo en paralelo a la R&D de nanotecnología proyectos.
\
D. Obligar a la tecnología
Especialistas en evaluación de tecnología se han desarrollado métodos para la tecnología de
FORC-ción - un enfoque que trata de fijar objetivos para el desarrollo de nuevas tecnologías y
estimula activamente la realización de estos objetivos. Un ejemplo bien conocido es la ley de Moore
en la miniaturización de semiconductores que es tecnológica y económica en la naturaleza.
Tecnología obligando requiere planes de trabajo que incluyan objetivos tecnológicos, económicos y
sociales. Dos cuestiones sensibles relacionadas con la tecnología están obligando (1) decidir que la
industria o las organizaciones gubernamentales, establecer las prioridades y (2) determinar quién
queda excluido de establecer las prioridades y por lo tanto tendrán menos posibilidades de acceder a
la introducción de nuevos productos y beneficiarse de la resultados.
Otros métodos tales como intento de retroproyección para establecer objetivos de la
sociedad y calcular hacia atrás de los desarrollos tecnológicos y las políticas necesarias para alcanzar
los objetivos. Retroproyección se diseñó para hacer frente a un desarrollo sostenible. Por ejemplo,
los responsables políticos pueden establecer los objetivos estratégicos como la reducción de las
emisiones de CO2 en un 8% entre los De 2008 y 2012, en comparación con los niveles de 1990
(objetivo de la UE de conformidad con el Kyoto
El Protocolo sobre el cambio climático). A continuación, desarrollar escenarios cuantificado de
las medidas necesarias para cumplir los objetivos
Los objetivos fijados por la OMS para la nanotecnología biomédica citados anteriormente
en este capítulo podría llegar a enfermedades cardiovasculares o las víctimas del cáncer en el año del
2020, después de que las técnicas de retroproyección podría utilizarse para diseñar una estrategia
para lograr la atención de la salud y las metas de los recursos proyectados para el año 2020. El
resultado debe ser un plan de trabajo general, incluyendo pero no limitado a establecer las
prioridades necesarias para el desarrollo.
Otro de los objetivos de la nanotecnología biomédica podría implicar hacer frente a dos de los
ocho Objetivos de Desarrollo del Milenio formulados por la Asamblea General de las Naciones
Unidas (véase la introducción de este capítulo) centrarse en enfermedades graves como el SIDA y
la malaria y la formación de una colaboración internacional para el desarrollo. Este último implica la
creación de redes de investigación, incluyendo los investigadores de los hemisferios norte y sur,
junto con las inversiones en infraestructuras de telecomunicación, como enlaces de alta velocidad de
comunicación y centros de investigación de alta calidad en los países en desarrollo.
© 2005 by Taylor & Francis Group, LLC
Hojas de ruta de ejercicios relacionados con la nanotecnología ya están incluidos en el Sexto
Programa Marco de la UE de Investigación y Desarrollo Tecnológico, pero son principalmente
tecnológicos y económicos en el ámbito de aplicación. En los EE.UU., 12 de los grandes retos para
la investigación de la nanotecnología ya están en marcha. También son principalmente tecnológicos
en el ámbito de aplicación (por ejemplo, nucleares, biológicas y armas químicas de detección de
dispositivos).
VI. CONCLUSIONES
Emmanuelle Schuler
ÍNDICE
I. Introducción
II. Nanomateriales en el cuerpo humano
A Implantes.
B. regeneración ósea
C. Diagnóstico y tratamiento de enfermedades
D.Cosméticos
III. La toxicidad de nanomateriales
A. Nanopartículas
B. Fullerenos
C. Nanotubos de Carbono
IV. Posiciones de las partes interesadas sobre la seguridad y el Reglamento de
Nanomateriales
A. Ciencia de la Comunidad
B. Industria
C. Grupos de interés ciudadano
D. El Pública
E. Gobierno de financiación y de regulación de las agencias
1. U. S. Iniciativas del Gobierno
2. Iniciativas del Gobierno en Europa
V. Posibilidades de Reglamento de Caminos
A. Reglamento a través del Mercado
B. Aplicación de las regulaciones actuales
C. Reglamento a través de accidente
D. captura del regulador
E. Reglamento
I. INTRODUCCIÓN
Como la industria alrededor de los dispositivos nanomédicos y las drogas surge, muchas de
reflexionar sobre si su progreso puede verse obstaculizado por el escepticismo público en torno
a Genet-mente los organismos modificados y las células madre. Bajo la presión de los medios
de comunicación y algunos grupos de intereses especiales, los gobiernos tanto en los Estados
Unidos y Europa han comenzado a realizar estudios sobre la seguridad de los nanomateriales y
los riesgos que pueda imponer
sobre la salud humana y el medio ambiente. Los procesos de regulación que se espera a
tomar forma muy pronto.
El objetivo de este capítulo es identificar los riesgos asociados con nano-tecnología
biomédica, revisar el estado de los conocimientos científicos, y proporcionar una visión general
sobre cómo las distintas partes interesadas pueden responder como la nanotecnología madura a
la producción a gran escala y la comercialización. Este capítulo concluye proponiendo diferentes
caminos posibles para la regulación.
La nanotecnología es un campo en constante movimiento y rara vez pasa una semana
cuando la seguridad y la regulación de la nanotecnología no son objeto de debate. Como los
datos y desarrollar los debates de los riesgos y de seguridad siguen siendo, algunos aspectos de
las cuestiones que aquí se presentan son propensos a tener mayor atención en el tiempo mientras
que otros pueden reunir menos interés. Sin embargo, este capítulo tiene como objetivo presentar
algunos elementos de reflexión futura sobre la evaluación de riesgos y políticas que rodean la
producción y el uso de nanoma-teriales en aplicaciones biomédicas.
B. Regeneración ósea
D. Cosméticos
* Ejemplos de lociones de protección solar incluyen Wet Dreams, Wild Child, y parió la Zona.
A. Nanopartículas
B. Fullerenos
Los interesados pueden ser ampliamente definidos como las personas o grupos de personas
(o incluso animales y plantas) o afectados por capaz de afectar a los riesgos inherentes a las
nuevas tecno-logías. Debido a que la nanotecnología biomédica y sus aplicaciones se
encuentran todavía en la infancia, la identificación precisa de todos los interesados y sus
posiciones relativas a la seguridad y la regulación siguen siendo en su mayor parte borrosa. La
mayoría de los desacuerdos entre los diferentes actores informado hasta la fecha en los medios
de comunicación se han centrado principalmente en la miedo al riesgo — los riesgos percibidos
en lugar de entender técnicamente riesgos puesto que la producción comercial de los
nanomateriales es incipiente y los peligros que todavía no se entienden completamente.
Para complicar esta situación es el hecho de que las partes interesadas difieren en su
tendencia natural a ser consciente de, organizarse en torno a, o conocer los riesgos de la
nanotecnología biomédica. Para algunos interesados, la amplificación del miedo de los riesgos
permite la exposición pública y puede ser valiosa. Para estos actores, más es mejor. Para los
medios de comunicación, las malas noticias es una buena noticia porque genera mayores ventas.
Algunos nongov organizaciones no gubernamentales tales como grupos de consumidores y
ecologistas utilizar el miedo de los riesgos tecnológicos como punto de conducción para recoger
y retener a los miembros.
A otras partes interesadas, el miedo al riesgo es preocupante y menos es mejor. Por ejemplo,
los organismos gubernamentales que promuevan avances en la ciencia y la tecnología a través
de becas de investigación y actividades de divulgación pública, grandes empresas y la puesta en
marcha sas cuyos productos avanzados constituyen sus ventajas competitivas, y Uni-versidad
científicos que dependen en gran medida los fondos públicos para la realización de sus
investigaciones son potencialmente vulnerables a los temores del público y medios de
comunicación sobre los riesgos de los nanomateriales.
Esta sección presenta una visión general sobre cómo los diferentes actores (la comunidad
científica, la industria, grupos de interés ciudadano, el público y los organismos no
gubernamentales) han comenzado a abordar las cuestiones relacionadas con la seguridad y la
regulación de los nanomateriales. Para cada categoría de partes interesadas, se centran en tres
aspectos importantes: (1) cómo el actor se ve afectada por los riesgos y beneficios potenciales en
la participación en actividades relacionadas con los nanomateriales, (2) cómo los interesados
pueden influir o afectar a los riesgos, y (3 ) los tipos de actividades en las que el interesado ha
realizado hasta la fecha sobre la seguridad de los nanomateriales y la regulación de.
A. Comunidad científica
La comunidad científica está formada por científicos e ingenieros que están activos en la
comprensión de los fenómenos básicos en la nanoescala, el diseño y fabricación de nuevos
nanomateriales y dispositivos, y el desarrollo de aplicaciones con fines médicos. La comunidad
científica ha beneficiado enormemente de la ayuda financiera proporcionada por los gobiernos y
de descubrimientos avance significativo en las aplicaciones médicas de la
B. Industria
Los políticos suelen tout la nanotecnología como una fuerza impulsora de la nueva
economía. Sin embargo, en comparación con otras industrias, la nanotecnología es todavía un
pequeño (pero creciente) de campo. Nanotecnología de financiación de capital de riesgo en los
EE.UU. se estima ha aumentado de menos de $ 10 millones en 1997 a US $ 300 millones en
2003.34 Los incrementos correspondientes en el número de patentes relacionadas con la
nanotecnología y la for-mación de las empresas implicadas en la producción y comercialización
de los productos de nanoma-rial se han producido. La integración del nano prefijo a los nombres
de empresas
Los grupos de interés ciudadano, tales como las centradas en los problemas de seguridad
pública o el medio ambiente suelen estar organizados para representar a los afectados por algún
tipo de actividad en esas zonas. En general, estos grupos responden a las actividades que
consideran que afectan a sus derechos y la vida personal.
D. El público
El público es un actor clave en el sentido de que como consumidores y usuarios de
aplicaciones de la nanotecnología, son en última instancia, afectados por los riesgos y los bene-
ficios. Aplicaciones biomédicas de la promesa de la nanotecnología para mejorar los estilos de
vida y conducir a mejores tratamientos médicos, especialmente para el tratamiento de
enfermedades para las que comienzan-tos tienen efectos secundarios no deseados o
enfermedades que no tienen ningún tratamiento en la actualidad. Dado que el público es en su
mayor parte inconsciente de la nanotecnología, uno sólo puede adivinar cómo el público recibe
y percibe los productos de consumo derivados de la nanotecnología. Pocos "nano", los
productos existentes hasta la fecha y los pocos que están disponibles no han encontrado la
resistencia del público significativo. Sin embargo, como aplicaciones de crecer y de otras partes
interesadas se activa, los consumidores pueden desarrollar una mayor aceptación o la resistencia
© 2005 by Taylor & Francis Group, LLC
a la nanotecnología, productos mejorados de.La situación de los alimentos genéticamente
modificados en Europa, especialmente en el Reino Unido, es un ejemplo de ello. Los temores
del público puede determinar el progreso o la falta de progreso de la tecnología de las
aplicaciones tecnológicas. A lo largo de la década de 1990, el público en general, no se percató
de la existencia - y riesgos - de los alimentos genéticamente modificados hasta la publicación de
la un controvertido estudio nonrefereed informes que las ratas alimentadas con papas
genéticamente modificadas sufrido daños a órganos vitales llevado a las noticias varias, una
reacción negativa del público en general, y una rápida respuesta gubernamental. En 1998, la
Comi-sión Europea impuso una moratoria sobre la importación y el cultivo de alimentos
genéticamente modificados por los Estados miembros. Los temores del público se encendieron
más por las acusaciones de que por el conocimiento científico, pero el resultado fue claro: los
alimentos genéticamente modificados fueron expulsados del mercado. La moratoria se levantó
parcialmente en julio de 2003, pero estrictos requisitos de etiquetado se colocaron en todos los
alimentos derivados de modificaciones genéticas.
El punto es que mientras que la gran mayoría del público en general pueden permanecer
en silencio en una serie de cuestiones, a veces pesa a afectar de forma significativa el ritmo de
desarrollo tecnológico. A veces se hace a través de las decisiones de consumo, como en el caso
del rechazo de alimentos genéticamente modificados en Europa. En otras ocasiones, el público
entra en la arena política a través de referéndum o de demostración, aunque estos no son
enfoques comunes. Hasta la fecha, el público no ha sido un jugador importante en el debate
sobre los riesgos de la nanotecnología.
El Reglamento a través del mercado significa que el progreso de innovación se ha dejado a las
fuerzas del mercado. En tales escenarios, la innovación sólo se produce si los consumidores
consideran que los beneficios económicos a la tecnología de compra de productos mejorados. ©
2005 by Taylor & Francis Group, LLC
Por ejemplo, si los consumidores sienten que cuenta de los beneficios de la fotografía digital
mejorada por la transmisión de imágenes fácilmente a las partes a distancia, van a comprar
cámaras digitales y equipos relacionados. A la inversa, si los consumidores no perciben los
beneficios de cambiar a productos de alta tecnología, que no comprar los productos y
eventualmente desaparecen. De esta manera, el comportamiento de compra de los
consumidores unidades determinadas tecnologías para avanzar y otros, a perecer.
La seguridad también es manejada de una manera similar. Si los consumidores desean un
determinado nivel de la seguridad, que tendrán que pagar por ello, y como resultado, la
seguridad es de empuje en los productos. Si los consumidores perciben las bolsas de aire frente a
las características de seguridad importantes de un automóvil, exigirán las bolsas y los
fabricantes, a su vez se ven obligados a ofrecer tales dispositivos de seguridad. Por supuesto, si
los consumidores no demandan una característica de seguridad, no aparecerá en el mercado. Al
igual que con la innovación de productos, la seguridad es una función de la demanda de los
consumidores. El papel del gobierno se limita principalmente a la supervisión del
funcionamiento del mercado - La protección de los derechos de propiedad y la prevención de
prácticas fraudulentas como la publici-dad falsa. En ocasiones, el papel del gobierno puede
ampliar para obligar a las empresas a des-información de algunos cercanos, como la exactitud
de los estados contables o de datos de seguridad relacionados con los productos.
Lamentablemente, varias deficiencias están involucrados en permitir que los consumidores
exigen niveles de seguridad. En primer lugar, los consumidores pueden no saber acerca de los
aspectos de seguridad de una tecnología determinada. Por ejemplo, mientras algunas empresas
de cosméticos han añadido nanopartículas dea sus lociones de protección solar, la mayoría de
los consumidores es probable que sean informados sobre su uso y el impacto potencial sobre la
salud humana. Esto significa que muchos consumidores tomar decisiones de compra sin la
información adecuada. En segundo lugar, incluso si los consumidores saben acerca de una
tecnología, que puede ser capaz de entender completamente los efectos de seguridad. Como se
señaló anteriormente, incluso los expertos científicos no han llegado a conclusiones definitivas
acerca de la toxicidad de los nanomateriales. Basado en el estado actual de conocimiento, es
muy poco probable que los consumidores puedan tomar decisiones informadas sobre los riesgos
de nanoproductos.
Cuando los productos tienen riesgos latentes, por ejemplo, los efectos leves y acumulativos
que se derivan de la exposición a los pesticidas, los consumidores suelen subestimar los efectos
a largo plazo, incluso cuando se demuestre que son perjudiciales. Por último, el consumidor
ignora modelo basado en no consumidores, que pueden verse afectados negativamente por las
compras de productos. Un ejemplo clásico es el humo de segunda mano de los usuarios de
tabaco. Los no usuarios no desempeñan ningún papel en el mercado de trans-acción, pero sin
embargo, sufren los efectos de la compra de los consumidores y el uso del producto. Los
economistas llaman a esto una market failure — en este caso es una externalidad negativa - Y el
remedio general es algún tipo de regulación gubernamental.
B. Aplicación de las regulaciones actuales
Nanomateriales, como las nanopartículas, puntos cuánticos, nanotubos, y otros pueden
considerarse técnicamente como productos químicos. En la actualidad, más de 20 millones de
química conocida ICALS son indexados por la Sociedad Química Americana de Química
Resumen Service.56 De ellos, aproximadamente 6 millones están disponibles comercialmente.
Sólo alrededor de 225.000 están inventariadas y regulados. Las agencias reguladoras en general,
tratan de centrarse en productos químicos como el benceno, plomo y mercurio, que tienen el
potencial para causar daño. La mayoría de los productos químicos no están regulados.
© 2005 by Taylor & Francis Group, LLC
Sólo muy recientemente los gobiernos han considerado la regulación de los nanomateriales.
Un paraguas de los mecanismos ya establecidos para evaluar y regular de los peligros que
imponen los nuevos materiales en la salud humana y el medio ambiente. El quid de la cuestión
es determinar si los mecanismos de regulación existentes son suficientes para regular los
nanomateriales y dispositivos nuevos, o si se requieren modificaciones.
En el actual marco regulador en los EE.UU., los nanomateriales basados en sustancias
incorporadas en los productos de consumo se regula en virtud del peligro Federal-ous de
sustancias administradas por la Ley de los EE.UU. Consumer Product Safety Commission57 y
no la certificación previa a la comercialización o la aprobación es obligatorio. Sin embargo, el
uso de la nueva sustancia será controlado de acuerdo al riesgo de exposición.
Los debates acerca de la regulación han comenzado en los EE.UU. durante un taller en el
otoño de 2003, el Centro Internacional Woodrow Wilson para Académicos, con sede en
Washington, DC, reunió a expertos en política pública y la ciencia y la ingeniería para analizar si
la Ley de Control de Sustancias Tóxicas (TSCA , administrado por la EPA), un marco existente
que tiene sustancias tóxicas reguladas en los EE.UU. desde 1976, se aplicaría a
nanotechnology.58 Más concretamente, los participantes consideraron, entre otras cosas, si la
TSCA se aplicará a la seguridad y la exposición al nanomateriales, tales como las
nanopartículas, fulerenos y nanotubos de carbono. Si el "significa-tivo de Nueva Utilice la regla"
de la Ley se aplica, la EPA podría investigar los efectos de los nanomateriales antes de su
fabricación y exigir pruebas de postproducción para la exposición. Productores, procesadores,
importadores y estarían sujetos a regulación. Conclusiones publicadas en el report59 titulado La
nanotecnología y el Reglamento: Un Estudio de Caso de Uso de la Ley de Control de
Sustancias Tóxicas declaró:
La naturaleza misma de la nanotecnología ....es probable que el desafío actual estructura normativa y
causar confusión, tanto en el lado de la industria y el gobierno de que relativo a la función de la
reglamentación .... Un enfoque mal concebidos o mal a la regulación podría tener enormes
consecuencias económicas ….
Muchos creen que a través de la regulación (como resultado de) accident60 ha sido el
modus operandi detrás de numerosas políticas públicas. Esto significa que los incentivos para
nuevas normas de seguridad son provocados por problemas que no estaban previstos. Tal
política puede tener una base racional.
Captura del regulador es una frase acuñada por George Stigler, economista y Premio
Nobel de
Laureado en 1971 para describir una situación, cuando una empresa busca reglamento en lugar
de resistir it.63 La lógica es que las regulaciones crean barreras a la entrada de nuevas empresas
en una industria y las barreras mejorar beneficios de la empresa titular. Por ejemplo, una
regulación que obliga a las empresas químicas a invertir en un determinado, tal vez muy cara, el
tipo de sistema de filtro para capturar los gases crea una barrera de costos obligatorios que
determinadas empresas están en mejores condiciones de soportar que los demás. De esta
manera, el Reglamento crea diferencias entre las empresas, algunas empresas puedan competir
mejor contra los titulares y operadores. Este escenario no es típico en todas las industrias, pero
es una posibilidad en el área de la nanotecnología.
En algunos casos, las empresas podrán solicitar al Gobierno a regular en un esfuerzo
para "gestionar" la competencia. Un ejemplo es la práctica del Departamento de Defensa de
EE.UU. para entrar en contratos con un número limitado de empresas de EE.UU.. Asimismo,
las empresas suelen participar en ciertas prácticas para que los reguladores más sensibles, por
ejemplo, proporcionando informes detallados de la empresa de investigación y otras informa-
ción y la contratación de los reguladores de primera. Cabe señalar que, si bien la captura del
regulador se centra en los beneficios privados de la regulación, no se produce necesariamente el
Reglamento resultados reglamentación en el interés público.
Mientras que las industrias de la captura del regulador ha sido históricamente más
destacadas en la defensa y el transporte, sino que también se ha producido en algunas industrias
de alta tecnología. La mayoría de las principales compañías farmacéuticas mantienen una
estrecha relación con el Reglamento de la FDA-ulators que aprueban los nuevos medicamentos.
Aprobaciones de la FDA y otros sistemas de regulación, tales como las patentes actúan como
mecanismos de lucha contra los competidores los medicamentos genéricos en el caso de las
grandes empresas farmacéuticas. Como la nanotecnología empuja hacia la investigación, es
posible que un número de compañías sigan los reglamentos para bloquear a los competidores
potenciales.
E. Reglamento
El 26 de julio de 1974, un grupo de eminentes científicos publicó una carta en Ciencia
pidiendo a sus compañeros que trabajan en el área emergente de ADN recombinante a unirse a
© 2005 by Taylor & Francis Group, LLC
ellos al acordar no iniciar experimentos hasta que se hicieron intentos para evaluar los riesgos.
los científicos temían que las moléculas de ADN recombinante podría ser Biolog-mente
hazardous.64 recombinante de ADN, un descubrimiento que marcó el nacimiento de la
tecnología genética y la biotecnología, comprende la unión de las partes de ADN de diferentes
fuentes de bio lógica - virus, bacterias, y los animales - a producir moléculas híbridas que puede,
por ejemplo, penetrar en las bacterias y se replican. En la década de 1970, los científicos
estimaron que las propiedades biológicas de estos híbridos no podía ser de fácil predecir.
Un año después, esa carta ha disparado un evento que sentó un precedente en la historia
de la ciencia: un llamado a una moratoria voluntaria temporal de científicos de detener la
investigación sobre el ADN recombinante hasta que se evaluaron los riesgos potenciales para la
salud humana y los ecosistemas de la Tierra y las directrices definidas para la investigación para
proceder. Esta moratoria voluntaria dirigida a la comunidad científica sirvió como una forma de
autorregulación.
Fue ampliamente aceptados y respetados por la comunidad científica y duró cerca de de
un año. La moratoria fue relajado cuando las prácticas seguras de trabajo y los reglamentos se
pusieron en marcha en 1976. En retrospectiva, la mayoría de acuerdo en que estas restricciones
no impiden el auge de la industria de la biotecnología en la década de 1980.
Dos décadas más tarde, otro gran avance tecnológico llevado a una situación bastante
similar. En 1997, pocos meses después del nacimiento de Dolly en Escocia, la primera (y tardía)
clonado ovejas, la Federación de Sociedades Americanas de Biología Experimental (FASEB),
la mayor coalición de científicos biomédicos, los EE.UU., aprobó una volun-tario moratoria de
5 años sobre la clonación de seres humanos. En febrero de 2003, FASEB aprobó una prórroga
de la moratoria voluntaria original de un adicional de 5 años. Reconociendo que la búsqueda de
la investigación del ADN recombinante y la clonación es un paso clave en la comprensión de
los procesos fundamentales de la vida, como el desciframiento del genoma humano y detectar
las enfermedades relacionadas con mutaciones en el gen, los científicos tienden a considerar la
autorregulación en la forma de una moratoria voluntaria temporal como un método eficaz de
intervención para eliminar potencialmente dañinos o peligrosos procedimientos.
Personas de negocios que también favorecen la autorregulación en ciertos escenarios. La
autorregulación implica por lo general las normas y prácticas derivadas de las principales
empresas o labo-ratories en un campo determinado. Estas compañías y laboratorios en
ocasiones el deseo de hacer sus prácticas a las normas porque ya han conseguido lo que querían.
La autorregulación normalmente pone la presión del grupo de empresas y laboratorios para el
cumplimiento porque si son negligentes en sus prácticas, el gobierno puede intervenir con las
directrices más estrictas.
F. Prohibiciones
En 2003, con sede en Canadá grupo de presión ambientalista conocido como ETC pidió
que la prohibición de productos de nanotecnología. Por temor a perder el control sobre
aplicaciones de la nanotecnología para la salud humana y el medio ambiente, los escépticos
contra el progreso de la nanotecnología pidió que la investigación y el desarrollo en que se
detuvo la zona. Esta prohibición es muy diferente de la moratoria voluntaria temporal
mencionada anteriormente. La prohibición prohíbe toda actividad por ley, una moratoria
temporal de las actividades de los retrasos para un período de autoridades autorizada de tiempo.
En términos prácticos, significa que la prohibición de que la nanotecnología dejará de existir -
no hay investigación, no hay producción, no hay productos.
\
REFERENCIAS
1. TJ Webster, C Ergun, RH Doremus, RW Siegel, and R Bizios. Enhanced osteoclast- like cell
functions on nanophase ceramics. Biomaterials 22: 1327–1333, 2001.
2. ¿Qué conceptos son objetos de estudio para describir los riesgos eléctricos?
Los efectos fisiológicos de la corriente eléctrica
Riesgos de shock producidos por el equipo y posibles sistemas de seguridad.
9. ¿De qué dependen los efectos que la corriente eléctrica produce sobre el cuerpo
humano?
Magnitud de la corriente que circula por el tejido,
Frecuencia,
Tiempo de exposición a la corriente eléctrica,
Zona por la que circula (superficie o tejido interno).
11. ¿Cuáles son los efectos fisiológicos que produce la corriente sobre el cuerpo
humano?
Pérdida del control motor
Parálisis respiratoria, dolor y fatiga
Fibrilación ventricular
Contracción del miocardio sostenida.
Daños físicos y quemaduras.
12. ¿Cuáles son los parámetros que afectan a los efectos fisiológicos producidos
por la corriente eléctrica?
Variabilidad del umbral de percepción y corriente de pérdida del control motor
Frecuencia de la corriente
Duración de la exposición a la corriente eléctrica
Peso del cuerpo humano
Puntos de entrada de la corriente eléctrica
13. ¿Qué efectos se producen de acuerdo a los puntos de entrada de la corriente
eléctrica al cuerpo humano?
El macroshock. Está relacionado con la circulación de corriente en la superficie
corporal
El microshock. Se refiere a aquellos casos en los que al tener un catéter conectado
al corazón, una pequeña corriente puede ocasionar grandes daños al paciente e
incluso la muerte.
15. ¿Qué factores limitan el paso de la corriente a través del cuerpo humano en el
macroshock?
La alta resistencia de la piel seca y la distribución espacial de la corriente a través del
cuerpo cuando una persona recibe una descarga eléctrica son factores que disminuyen
el peligro de fibrilación ventricular debido a macroshock.
Para protegerse contra esta delgada posibilidad teórica, los dispositivos médicos
modernos incluyen una gama de medidas de protección para limitar la corriente en los
circuitos conectados al corazón a los niveles de seguridad supuestos de menos de 10
μA.
21. ¿cuáles son las principales causas que pueden provocar situaciones de riesgo
de microshock?
Defecto o rotura del conductor de puesta a tierra
Superficies metálicas cercanas al paciente y no conectadas a tierra
Equipos conectados a diferentes potenciales de masas
Equipos alimentados a baterías
23. ¿Qué diferencia de potencial debe existir entre equipos médicos en áreas
generales y áreas de cuidados?
La normativa NEC (national electrical code) regula estos problemas y establece que
la diferencia de potencial entre las masas de dos equipos no debe superar los 500
mV en áreas generales y los 40 mV en áreas de cuidados bajo condiciones normales
de funcionamiento.
24. Del circuito equivalente que representa el defecto o rotura del conductor de
puesta a tierras la corriente se puede calcular:
tiene como objetivo que los equipos que pueden entrar en contacto con el paciente no puedan
tener una diferencia de potencial entre masas superior a 40 mV en las zonas de cuidados
(cuidados intensivos, quirófanos, habitaciones..etc) o 500 mV en las áreas generales.
El equipo se deberá construir de forma que exista una protección adecuada contra el contacto
accidental con las partes sometidas a tensión. Esta protección deberá mantenerse durante el
funcionamiento normal del equipo, en caso de cambio de ubicación o apertura de cubierta o tapas
para las que no se requiera ningún tipo de herramienta.
Esto, aparentemente contradictorio, es útil cuando los dos circuitos están alimentados
a tensiones muy diferentes, tienen una referencia diferente, para aplicaciones de electrónica
biomédica o simplemente están alejados.
Las tres principales características de los amplificadores de aislamiento son la alta impedancia de
la barrera de aislamiento entre las etapas de entrada y de salida (>10 MS), alto voltaje de
aislamiento (>1000 V) y alto rechazo al modo común (CMRR).
Aislamiento óptico
Aislamiento capacitivo
En aquellos equipos con partes conductoras accesibles o que sean de clase II, III, alimentación
interna o bien del tipo CF.
34-. ¿Cuáles son los motivos por los que puede producirse una corriente de fuga?
Se utilizan para testear y comprobar los equipos de los servicios médicos. Estos equipos abarcan
desde detectores de continuidad hasta detectores de aislamiento.
Estos equipos detectan posibles cortocircuitos entre cables al mismo tiempo que miden que exista
un camino físico entre dos puntos de un equipo.
38-. ¿Cuáles son los fallos que requieren una comprobación de enchufes?
- Hilos intercambiados.
39-. ¿Cuáles son las restricciones con respecto a las corrientes de fuga del chasis?
Las corrientes de fuga del chasis deben ser inferiores a 500µA en equipos que no tengan contacto
con los pacientes e inferiores a 100µA en los que sí tengan contacto.
40-. ¿Cuáles son las restricciones con respecto a las corrientes de fuga en los hilos del paciente?
La corriente de fuga en este caso debe ser inferior a 50µA. En cables aislados esta corriente debe
ser inferior a 10µA.
INGENIERIA CLINICA Y SEGURIDAD EN EQUIPOS MEDICOS
1.0 INTRODUCCIÓN.
La tecnología médica ha aumentado considerablemente la seguridad de los equipos y ha reducido los riesgos
debidos al manejo y utilización. En la actualidad, en las aplicaciones médicas los niveles de seguridad que deben
reunir los sistemas de instrumentación están normalizados. Resulta obvio que no puede asegurarse un riesgo
nulo en el uso del equipo, sin embargo, una adecuada utilización de los mismos por usuarios instruidos minimiza
los riesgos eléctricos y aumenta la seguridad del paciente.
De todas formas, el aumento de la complejidad de los dispositivos médicos y su manejo provoca un número
considerable de daños a pacientes. La mayoría de estos daños se pueden atribuir a un uso inadecuado del equipo
o falta de experiencia en su manejo. Por lo tanto, suponiendo que el equipo puede fallar, deben desarrollarse
sistemas de seguridad lo más fiables posibles.
De hecho, los pacientes de un hospital bajo ciertas condiciones pueden ser más susceptibles al peligro de la
corriente eléctrica que una persona en su caso o trabajo, por lo que deben tomar precauciones especiales en los
equipos o instrumentos médicos. Las condiciones bajo las que se presentan dichos problemas son difíciles de
percibir por lo que hay que extremar las precauciones. El objetivo final es comprender las medidas más
importantes de seguridad que se incorporan al diseño para minimizar el riesgo de peligro. Las fuentes de peligro
incluyen el fuego, aire, agua, productos químicos, drogas, diversos tipos de radiación, el propio personal médico
pero en este caso se hará hincapié en el tema de seguridad eléctrica aunque no conviene perder de vista los
demás.
Para describir los riesgos eléctricos, se estudian los efectos fisiológicos de la corriente eléctrica, riesgos de shock
producidos por el equipo y posibles sistemas de seguridad.
Ingeniería Clínica
En los últimos años de la década de 1960, los ingenieros son llamados a interiorizarse principalmente en la
seguridad eléctrica de los pacientes dentro de los hospitales y también para brindar respuestas sobre la gran y
rápida proliferación de equipamiento médico.
A partir de mediados de 1970, se desarrollaron procedimientos de inspección de acuerdo a ciertas normas, por lo
que se incluyeron departamentos de ingeniería clínica dentro de algunos hospitales como centros de soporte para
todo lo relacionado con la tecnología médica y los instrumentos y sistemas biomédicos utilizados en los
hospitales.
1
Según datos de 1987 de la Organización Mundial de la Salud (WHO), sobre una estimación mundial de 14
millones de camas de hospitales el número de ingenieros clínicos resulta ser de aproximadamente 4000, con la
consiguiente media de un ingeniero clínico cada 3.500 camas.
Pocos años después, en 1993, la División de Ingeniería Clínica de la International Federation for Medical and
Biological Engineering (CED-IFMBE) informó que, sobre una muestra de 21 países, existía una media de un
ingeniero clínico cada 3.200 camas de hospital. Los países con menor tasa de camas de hospital / ingeniero
clínico eran Islandia (250), Austria (444), Suecia (754) y Australia (860), mientras que los países con mayor tasa
eran Japón (33.600), Sudáfrica (27.516) y Canadá (6.950).
Es importante destacar que, de acuerdo a estimaciones internacionales, para un hospital de alrededor de 250
camas se considera necesario un ingeniero clínico asistido por al menos tres técnicos, orientados cada uno a
distintas especialidades de aparatología como por ejemplo: Laboratorio, Diagnóstico por imágenes, y equipos
para otros usos.
En nuestro país, surgieron servicios de Ingeniería Clínica en el Sector Público en la década de 1970 en varias
provincias como Buenos Aires, Córdoba, Entre Ríos y Santa Fe, que en un primer momento servían a un
conjunto de hospitales y luego fueron desarrollándose pequeños núcleos en los principales hospitales de cada
provincia. En general, el área de Ingeniería Clínica en Argentina está en un nivel intermedio en la organización
hospitalaria, con dependencia del área económica o de servicios generales, lo cual dificulta la toma de
decisiones de esta área tan importante, que según los especialistas se encuentra equiparada en cuanto a su nivel
de jerarquía con el área sanitaria y la económico-financiera.
Algunas de las tareas que realiza un ingeniero clínico se mencionan a continuación:
Constatar que los equipos funcionen de acuerdo a las especificaciones de los fabricantes y de que
se los utilice según las recomendaciones de los mismos.
Capacitar al personal médico en el uso del equipamiento y la seguridad eléctrica.
Asesorar, diseñar, evaluar y seleccionar las tecnologías biomédicas adecuadas para el cuidado de la
salud.
Realizar el mantenimiento preventivo y correctivo de las instalaciones eléctricas y del
equipamiento biomédico, garantizando su disponibilidad el mayor tiempo posible con el menor
costo posible.
Controlar la gestión del equipamiento médico evaluando su rendimiento y determinando los límites
aconsejables de vida útil de cada equipo.
En conclusión, el ingeniero clínico cumple una función multifacética, ya que debe interactuar satisfactoriamente
con diferentes “clientes”, como lo son el personal médico y administrativo del hospital, las agencias reguladoras
que redactan las normas, las empresas que fabrican y venden los equipos biomédicos, etcétera.
2
Los efectos que la corriente eléctrica produce sobre el cuerpo humano dependen fundamentalmente de los
siguientes parámetros: magnitud de la corriente que circula por el tejido, frecuencia, tiempo de exposición a la
corriente eléctrica, zona por la que circula (superficie o tejido interno). La gravedad del daño producido
dependerá también del órgano afectado.
La corriente eléctrica puede afectar al tejido principalmente de tres formas: en primer lugar se produce una
excitación eléctrica de los tejidos excitables (nervios y músculos), comenzando con una sensación de
“hormigueo” o “escozor” que si alcanza intensidad suficientemente elevada puede ser dolorosa y molesta. La
estimulación de estos nervios o músculos motores puede provocar contracciones y si ésta aumenta puede
producirse la tetanización del músculo.
En segundo lugar puede aparecer un incremento de la temperatura del tejido debido a la resistencia que presenta
y la energía disipada por el mismo. Por último, el aumento de temperatura si el elevado puede provocar lesiones
(quemaduras) en el tejido. Con la corriente eléctrica domestica las quemaduras se limitan por lo general a
lesiones localizadas en los puntos de contacto o en sus inmediaciones, lugares donde se produce mayor densidad
de corriente. En los accidentes industriales causados por alta tensión, así como en accidentes por rayos, la
energía eléctrica disipada puede provocar quemaduras que aceptan a grandes áreas del cuerpo. En electro cirugía
se utiliza la corriente concentrada procedente de un generador de radiofrecuencia con la frecuencia de 2,5-4
MHz para cortar tejido o coagular pequeños vasos sanguíneos.
El órgano más susceptible a la corriente eléctrica es el corazón. Un estímulo que tetanice el corazón provoca la
contracción completa del miocardio que detiene la acción de bombeo el corazón e interrumpe la circulación
sanguínea. Si la circulación no se restablece en pocos minutos, en primer lugar se lesiona el cerebro y luego se
produce la muerte debido a la falta de aportación de oxígeno a los tejidos cerebrales. No obstante, si la corriente
tetanizante se elimina al cabo de poco tiempo y las lesiones producidas no son irreversibles, el latido del corazón
se reanuda de forma espontánea. Una corriente de intensidad más baja que excite sólo parte de las fibras
musculares del corazón puede ser más peligrosa que una corriente suficiente para tetanizar el corazón entero.
Esta excitación parcial puede cambiar las vías eléctricas de propagación en el miocardio desincronizando la
actividad del corazón. Este fenómeno en el que el corazón pierde su sincronismo se denomina “fibrilación”. La
fibrilación ventricular es la causa que produce la mayoría de las muertes en los accidentes eléctricos.
También se puede producir parálisis respiratoria si los músculos del tórax se tetanizan por efecto de una
corriente que circule a través del pecho o a través del centro de control de la respiración en el cerebro.
Son muchos los factores que influyen en la magnitud de la corriente eléctrica necesaria para producir un efecto
fisiológico concreto en una persona.
3
A continuación, se comentan los efectos fisiológicos que se producen en el cuerpo humano en función de la
magnitud de la corriente eléctrica que circula a través de él suponiendo que se aplica una diferencia de potencial
entre las extremidades superiores (las dos manos). En a figura 1 se muestra los valores aproximados de la
corriente y los efectos que producen para un tiempo de exposición de 1-3 seg. y varios niveles de magnitud
alterna de 50 Hz. aplicada al exterior del cuerpo de una persona de 70 Kg aproximadamente.
4
Figura 1. Efectos fisiológicos de la electricidad.
5
ventricular), el proceso no se detiene aunque desaparezca la causa que lo provocó, el corazón deja de
funcionar como bomba ocasionando una parada en la circulación sanguínea y la muerte súbita si no se
consigue la reversión inmediata. Puede volverse a recuperar la actividad normal del corazón si se aplica
un pulso de gran corriente durante un corto intervalo de tiempo que despolarice todas las células del
músculo cardiaco. El equipo diseñado para este fin se denomina “desfibrilador”. El nivel de corriente
que puede producir fibrilación varia entre 75 y 400 mA.
3.1 Variabilidad del umbral de percepción y corriente de pérdida del control motor.
En la figura 2 se muestra la variabilidad del umbral de percepción y de la corriente de pérdida del
control motor para hombres y mujeres (Dalziel, 1973). En dicha figura se muestra el porcentaje de
personas que perciben diferentes valores eficaces (Rms) de la corriente en miliamperios. Puede
observarse que los datos obtenidos puede interpolarse por una recta puesto que se observa que sigue
una distribución gaussiana. Para los hombres, el valor medio del umbral de percepción es de 1.1 mA,
para las mujeres, este valor medio se estima en 0.7 mA. Se observa que el valor mínimo de este umbral
de percepción se sitúa entorno a 0.5 mA. Es lógico pensar que estos valores dependen de la impedancia
eléctrica que presenta el cuerpo humano, pudiendo llegarse a la conclusión que las conductividad del
cuerpo humano es mayor en las mujeres debido entre otras causas a que el porcentaje de agua de las
mismas es mayor. El uso de geles que reducen la impedancia piel-electrodo reduce la impedancia del
lazo de corriente de forma que el nivel de percepción disminuye. Utilizando geles en electrodos de
ECG, el valor medio del umbral de percepción se reduce a solo 83 A en un rango de 30-200 A (Tan
y Johnson, 1990). La corriente de pérdida de control también puede aproximarse por una distribución
gaussiana, con un valor medio de corriente de 16 mA para hombre y 10.5 mA para mujeres. El valor
umbral mínimo de la corriente de pérdida de control es de 9.5 mA para hombres y 6 mA para mujeres.
Puede observarse que el rango de posibles valores de la corriente de pérdida de control es mucho mayor
el de la corriente de umbral de percepción. La variabilidad de estas medidas puede achacarse a la
variabilidad de la impedancia de la piel en diferentes
6
personas.
7
Un único estímulo o pulso eléctrico puede producir una fibrilación ventricular si se aplica durante el
periodo vulnerable de repolarización del corazón que corresponde a la onda T del ECG.
En la siguiente figura se muestran los umbrales de los valores de fibrilación para una corriente de 60 Hz
aplicada a las extremidades de diversos animales. Se observa que el umbral de fibrilación aumenta
rápidamente para intervalos inferiores a 1 s y disminuye conforme aumenta el tiempo de exposición.
8
Figura 5. Mínima corriente de fibrilación en función del peso.
9
4.0 DISTRIBUCIÓN DE POTENCIA ELÉCTRICA.
La energía eléctrica es necesaria en las instalaciones de hospitales o servicios de cuidados o asistencia no sólo
para el funcionamiento de los instrumentos médicos, sino también para uso de iluminación, aplicaciones de
mantenimiento, confortabilidad de los pacientes (televisión..etc), relojes, botones de emergencia o llamada a
enfermeras y otros equipos eléctricos.
Un primer paso para aumentar la seguridad es el control de las tomas de potencia o de corriente y toma de tierra
en el entorno del paciente. En este apartado se van a comentar algunos métodos de distribución de líneas de
potencia en los servicios de cuidados de la salud.
Posteriormente se estudiaran diversas situaciones peligrosas que pueden ocasionar peligros de macroshock y
microshock. En la figura 7 se muestra un diagrama simplificado de un sistema de distribución de energía
eléctrica. La energía se distribuye desde una subestación principal al hospital normalmente mediante cables
subterráneos que transportan alta tensión (4800 V). Por medio de un transformador reductor con toma central se
obtiene una alimentación de 230-240 V. El secundario del transformador generalmente tiene toma intermedia o
toma central y se conecta a un anclaje de toma de tierra. A partir de aquí se desarrolla la instalación eléctrica del
edificio.
Conviene resaltar que es interesante que los equipos tengan toma de tierra para derivar posibles derivaciones a
éstos por parte de la red eléctrica. En las instalaciones modernas, todos los enchufes disponen de un tercer
contacto denominado “toma de tierra del equipo” y que está unida a masa (tierra) en la subestación del edificio
bien mediante el conducto de acero galvanizado que protege a los otros conductores o bien mediante un
conductor de masa distinto. El uso del conducto como conector a masa puede presentar ciertos peligros debido a
la corrosión o un aumento de la resistencia del conducto hasta un nivel peligroso. Por este motivo las normas
NEC (1990) en E.E.U.U. exigen un sistema de masas equipotenciales en los lugares donde haya pacientes
susceptibles a la electricidad.
10
Figura 7. Esquema simplificado de la distribución eléctrica.
4.1 Entorno eléctrico de los pacientes.
El peligro de shock o descarga eléctrica existe entre dos conductores entre los que exista una diferencia
de potencial (230-240 o 115-120 V). En las áreas generales de los hospitales (pasillos, zona de
recepción..etc) los pacientes rara vez entran en contacto con equipos eléctricos, sin embargo en las
áreas destinadas a cuidados (habitaciones, quirófano..etc) los pacientes entran en contacto con los
equipos eléctricos por lo que el riesgo de descarga eléctrica aumenta. Por este motivo, es necesario que
estos equipos tengan toma de tierra para minimizar estos riesgos y de esta forma conectar los equipos a
tierra.
11
Para exponerse al peligro de un macroshock eléctrico, una persona debe entrar en contacto
simultáneamente con ambos conductores eléctricos, el activo y el neutro o dos activos a diferentes
potenciales. No obstante, como el conductor neutro está conectado a masa, existe el mismo peligro
entre el conductor activo y cualquier objeto conductor que de alguna manera esté conectado a masa.
Entre estos objetos pueden citarse radiadores, cañerías de agua, estructuras metálicas del edificio..etc.
En el diseño del equipo eléctrico, debe prestarse especial atención en impedir que el personal pueda
hacer contacto accidental con el cable activo utilizando para ello materiales aislantes adecuados y
conservando las distancias de seguridad entre los conductores y chasis del equipo para minimizar
posibles acoplos capacitivos. Con todo esto, puede producirse un contacto accidental entre el cable
activo y el chasis de un equipo debido a una perdida de aislamiento, al deterioro y a averías mecánicas.
Si el chasis no está conectado a masa, cualquier persona que lo toque y esté conectado a masa a través
de otro conductor estará expuesta a un grave peligro de macroshock como se muestran en la figura 8.a.
Fi
gura 8. Riesgos de macroshock.
La finalidad del contacto de toma de tierra del equipo en el enchufe de la pared es reducir el peligro de
macroshock. De esta forma se dispone de una conexión a tierra para el chasis del equipo (figura 8.b).
Cuando se produce un contacto accidental entre el conductor activo y el chasis, la corriente puede
retornar a masa a través de esta conexión equipo-tierra sin crear un peligro eléctrico. Así pues, la
integridad de la conexión equipo-tierra es de gran importancia.
Una interrupción de esta continuidad debido a un cable o una clavija de masa rotos o al empleo de un
adaptador de tres clavijas de contacto a dos (con una clavija al aire) destruye por completo su valor
protector. Aunque la conexión a masa no se interrumpa por completo, sólo con que presente una
resistencia mayor alrededor de un ohmio, puede elevar el potencial de la caja hasta un valor tal que se
cree un peligro de macroshock.
La alta resistencia de la piel seca y la distribución espacial de la corriente a través del cuerpo cuando
una persona recibe una descarga eléctrica son factores que disminuyen el peligro de fibrilación
ventricular debido a macroshock. La resistencia de la piel limita la corriente que fluye a través del
cuerpo. El valor de esta resistencia varía en función de la cantidad de agua y de aceite presente al
mismo tiempo es inversamente proporcional al área de contacto. La capa externa de la piel (epidermis)
presenta una gran resistencia (rango 15 K- 1 M). La piel mojada reduce su resistencia hasta el 1%
de la seca. A diferencia, la resistencia de los tejidos internos o de las capas internas de la piel (dermis)
presenta valores menores de 500 . Cualquier proceso que reduzca o elimine la resistencia de la piel
aumenta la vulnerabilidad de las personas ante macroshock. Por lo tanto, los pacientes que se
encuentran en cuidados intensivos, sujetos a monitorización o conectados a cualquier equipo son más
susceptibles a macroshock que la población general.
12
Aunque el riesgo de macroshock sólo se produce por lo general como consecuencia de una pérdida del
aislamiento, se pueden crear riesgos de microshock en equipos con aislamiento en perfecto estado. El
mero hecho del acoplo capacitivo entre el cable activo y la caja en el equipo eléctrico puede crear
corrientes de magnitud suficientemente grande como para presentar un riesgo de microshock. Por
ejemplo, una tensión de 115 V y una capacidad de sólo 200 pF produce una corriente de 10 A. Por lo
tanto, muchos electrodomésticos, lámparas y aparatos de diagnósticos o terapia presentan fugas
capacitivas de corriente que sobrepasan los 10 A. Aunque estos equipos son perfectamente seguros
para trabajar en condiciones normales, pueden crear un riesgo de microshock para pacientes
susceptibles a la electricidad. En la figura 9 se muestra un ejemplo de riesgo de microshock en el que
un paciente tiene un catéter insertado por vía intravenosa. El catéter forma parte de un transductor
conectado a un monitor para visualizar ciertos parámetros y a su vez éste a la red eléctrica. Esta
disposición establece una conexión a masa del corazón a través del catéter.
Bajo estas condiciones, se crea un riesgo de microshock mediante cualquier contacto conductor entre el
paciente y un dispositivo que no esté puesto a masa y que tenga una corriente de fuga mayor de 10 A.
En la figura 2.9 el paciente está tocando el aparato directamente, pero este contacto se puede establecer
también otra persona que toque al paciente y al aparato a la vez. Las principales causas que pueden
provocar situaciones de riesgo de microshock son las siguientes:
1.- Defecto o rotura del conductor de puesta a tierra: de esta forma, gran parte de la corriente por acoplo
capacitivo entre los cables conductores y el chasis que se deriva entre el chasis y tierra lo hace a través
del paciente, en concreto, a través del corazón y del catéter (figura 10). La mejor forma de solucionar
este problema es aislar eléctricamente al paciente de forma que no exista un camino de cierre de la
corriente a tierra a través del sujeto. Ello puede conseguirse mediante la utilización de sistemas de
aislamiento a la entrada de equipos de medida (amplificadores de aislamiento).
13
Figura 10. Defecto o rotura del conductor de puesta a tierra.
2.- Superficies metálicas cercanas al paciente y no conectadas a tierra: Otro caso de riesgo sucede
cuando el paciente toca un aparato o dispositivo que tiene corriente de fugas. Estas corrientes pueden
cerrarse a tierra a través del catéter y del equipo de medida. El mismo caso se produce si es otra persona
la que facilita esta conexión (figura 11) donde un fallo en el conductor de tierra que conecta la
superficie metálica de la cama con tierra. Como consecuencia de este fallo, la cama adquiere un
potencial distinto de cero y cuyo nivel depende del acoplamiento capacitivo entre la línea de red y la
cama. Un enfermero que manipula un catéter intracardiaco establece una derivación entre la cama y
éste último creando una vía de paso a través del enfermero y el paciente. Es posible que la corriente de
fugas sea muy inferior al nivel de percepción del enfermero y sin embargo, puede ser suficientemente
grande para provocar un microshock al paciente. La mejor solución para evitar este riesgo es utilizar
equipos con entrada aislada y al mismo tiempo conectar todas las partes metálicas de los diversos
aparatos y accesorios a tierra.
14
3.- Equipos conectados a diferentes potenciales de masas: Puede suceder que si no se dispone de un
equipo de masas equipotenciales existen diferentes valores de masa para diferentes equipos, de esta
forma si uno de los equipos se pone en contacto con un catéter y otro equipo se conecta al paciente
como pueden ser la monitorización del ECG y de la presión sanguínea a través de un catéter , la
diferencia de tensiones entre masas puede dar origen a peligros de microshock. La normativa NEC
(national electrical code) regula estos problemas y establece que la diferencia de potencial entre las
masas de dos equipos no debe superar los 500 mV en áreas generales y los 40 mV en áreas de cuidados
bajo condiciones normales de funcionamiento.
4.- Equipos alimentados a baterías: Los equipos alimentados con baterías y por lo tanto aislados
eléctricamente de tierra, también pueden presentar problemas o riesgos en el paciente. Por ejemplo, en
la utilización del bisturí eléctrico, las corrientes de alta frecuencia pueden acoplarse capacitivamente
con el chasis y si un operador lo toca, las corrientes podrían cerrarse a tierra a través de él. Por lo tanto,
para solucionar este problema, todas las partes metálicas externas (chasis) de los sistemas a baterías
deben también unirse a tierra. Para que produzca un riesgo o descarga de microshock hace falta una
conexión eléctrica directa del corazón con el exterior del cuerpo. Los catéteres cardiacos para
diagnóstico o para marcapasos se emplean en pacientes que tengan una afección cardiaca. En tales
pacientes, la fibrilación ventricular ocurre a menudo como consecuencia de la enfermedad. Esto explica
que el riesgo de microshock pasase inadvertido durante un largo periodo de tiempo y no pueda
realizarse una estimación muy concreta del número de accidentes que puedan ocurrir debidos a esta
causa.
Aunque en la mayor parte del hospital o del centro sanitario se requieren sólo las precauciones de
seguridad normales para la prevención de riesgos de macroshock, también deben tomarse medidas
especiales en aquellos lugares donde haya pacientes susceptibles a la electricidad. Estos lugares
incluyen unidades coronarias, unidades de cuidados intensivos, quirófanos o salas donde se puedan
realizar cirugía torácica. Todo lo expuesto anteriormente hace que se deban extremar las precauciones
tanto en el diseño del equipo de medida como en su instalación.
15
1.- Defecto o rotura del conductor de puesta a tierra: En la figura puede observarse dos situaciones
diferentes de riesgo de microshock donde existe un defecto o rotura de la puesta a tierra así como sus
circuitos eléctricos equivalentes. Puede observarse que para una tensión de red de 120 V, y una
capacidad parásita de 2500 pF pueden originarse corrientes de fuga de 110 mA considerando que la
resistencia de la piel es de 100 KW y la del cuerpo 500 W.
La corriente eléctrica puede calcularse:
16
a) Riesgo de microshock debido a la existencia de equipos conectados a diferentes
potenciales de masa. b) Circuito equivalente.
Acoplo capacitivo en sistemas de alimentación aislados: En la figura 15 puede observarse las capacidades
parásitas que pueden aparecer entre los cables de alimentación y el chasis del equipo que pueden provocar
riesgos de microshock. Considerando que CA y CB representan las capacidades parásitas del monitor de
ECG y equipo de medición y CS las capacidades parásitas entre los conductores de la fuente de
alimentación. En el circuito 15.b se ha representado el circuito equivalente de la figura 15.a donde se
supone que la resistencia del paciente es 500 Ω, CA + CS es 3000 pF y las diferencia entre CB1-CB2 es
1500 pF. En este caso, la corriente que circula por el corazón es aproximadamente 50 μA, superando los
límites de riesgo de microshock.
17
Acoplo capacitivo del sistema de alimentación sobre el paciente. Circuito equivalente. El monitor de
aislamiento de línea también puede añadir una capacidad en paralelo con CA y CB.
18
1.- Según la protección utilizada:
- Clase I: Aquellos equipos en los que la protección no se obtiene sólo del aislamiento básico, sino que se
incluyen precauciones auxiliares, de forma que se dispone de una conexión de las partes conductoras accesibles
al conductor de tierra de forma permanente, para que no puedan estar a tensión elevada en caso de fallo de
aislamiento.
Figura 14. Equipo de clase I. En trazo grueso lo que caracteriza a esta clase. b) Circuito
equivalente .Z 3er es la impedancia del tercer conductor. La protección de esta clase I indice sobre
este parámetro.
- Clase II: Aquellos en los que la protección no recae sólo sobre el aislamiento básico, sino que se dispone de
un doble aislamiento o aislamiento reforzado, no existiendo provisión de una puesta a tierra de seguridad.
Existen tres tipos generales de equipos de esta clase: los que incorporan una cubierta aislante, los de cubierta
metálica y los mixtos. Una precaución que el fabricante debe tener en esta clase de equipos es la de no conectar
condensadores al chasis desde la alimentación con el propósito de disminuir el nivel de interferencias que el
equipo capto o emita. Ello disminuiría el doble aislamiento y en consecuencia la protección.
19
Figura 15- a) Equipo de Clase II. En rayado lo que caracteriza a este equipo. b) Circuito
equivalente. La protección de la clase II incide sobre el parámetro de la impedancia de aislamiento.
- Clase III: Aquellos equipos en los que la protección se basa en alimentar a tensiones muy bajas de seguridad,
no generándose tensiones mayores que ésta en el equipo.
Figura 16. a) Equipo de clase III. En trazo negro lo que caracteriza a estos equipos. b) Circuito
equivalente. La protección de la clase III incide en el parámetro de la tensión de alimentación.
- Equipos con alimentación interna: Este tipo de equipos no proveen ninguna conexión eléctrica desde el
exterior a la fuente interna en funcionamiento normal. Es decir, estarán alimentados a baterías o pilas.
2.- Según el nivel de protección:
- Tipos B: Son todos aquellos equipos de las clases I, II, III o con alimentación interna que provean un adecuado
grado de protección respecto a corrientes de fugas y fiabilidad de la conexión de tierra (si es el caso). Según la
norma CEI, deberán ser equipos tipo B todos aquellos equipos de uso médico que no tengan una parte
directamente aplicada al paciente.
- Tipo BF: Aquellos de tipo B con la entrada o parte aplicada al paciente aplicada al paciente mediante circuitos
flotantes. Según la norma CEI, deberán ser equipos tipo BF todos aquellos equipos que tengan una parte
aplicada al paciente.
- Tipo CF: Aquellos equipos de las clases I, II o alimentados internamente que permitan un alto grado de
protección en relación con corrientes de fugas y con entrada flotante. Según la norma CEI, deberán ser equipos
tipo CF todos aquellos en que se pueda establecer un camino directo al corazón del paciente.
- Tipo H: Aquellos de las clases I, II, III o alimentados internamente que provean protección frente a descargas
eléctricas comparables a las que se obtienen en los electrodomésticos.
20
El principio de aislamiento del paciente tiene como objeto evitar que se pueda cerrar cualquier lazo de corriente
a través del paciente, manteniéndolo completamente aislado. Por otro lado, el principio de equipotencialidad
tiene como objetivo que los equipos que pueden entrar en contacto con el paciente no puedan tener una
diferencia de potencial entre masas superior a 40 mV en las zonas de cuidados (cuidados intensivos, quirófanos,
habitaciones..etc) o 500 mV en las áreas generales.
21
Figura 18. Aislamiento por transformador.
22
Figura 21. Esquema de un preamplificador de electrocardiograma (ECG).
23
Figura 22. Riesgos debidos a la falta de equipotencialidad o defectos de aislamiento de los equipos.
24
Las medidas de seguridad empleadas con mayor frecuencia tienen como finalidad asegurar en primer
lugar que no puedan existir diferencias de potencial entre los objetos que pueden entrar en contacto con el
paciente y que los pacientes no puedan entrar en contacto con ningún objeto puesto a masa o conductor.
En segundo lugar se toman medidas para reducir las corrientes de fuga por debajo de 10 A para
disminuir el riesgo de microshock en el caso de que algún equipo perdiese la integridad de la masa o
puesta a tierra del equipo.
Para asegurar que todos los equipos u objetos conductores cercanos al paciente estén al mismo potencial,
hay que emplear un sistema de masas equipotenciales, tal y como exige la reglamentación al respecto ( En
E.E.U.U. la “National Electrical Code”), en todas las zonas donde haya pacientes susceptibles a la
electricidad. En los ejemplos de la figura 23 se muestran que todas las tomas de corriente de una
habitación están agrupadas en un panel. Los contactos de toma de tierra del equipo que hay en las tomas
de corrientes están unidos por una línea de masa. Además todos los equipos u objetos metálicos se
conectan a esta línea (masa de referencia) mediante cables de conexión independientes. Este sistema
garantiza que todos los objetos que puedan entrar en contacto con el paciente estén al mismo potencial con
tal que las conexiones individuales de toma de tierra de todos los equipos eléctricos se encuentren
intactas.
25
Figura 24. Corriente de fugas a tierra.
o Corriente de fugas del chasis: Es la que fluye del chasis a través de un camino conductor a
tierra u otra parte del chasis, pero no por el conductor de protección.
o Corriente de fugas del paciente: Es la que fluye de una parte aplicada del equipo al paciente a
través de aquél a tierra, o de otro conductor a través del paciente a un equipo flotante.
26
Figura 26. Corrientes de fuga del paciente.
o Corriente auxiliar del paciente: Es la que fluye a través del paciente entre aparatos aplicados en
funcionamiento normal sin intentar producir efectos fisiológicos.
o Corriente funcional del paciente: Es la fluye a través del paciente entre aparatos aplicados en
funcionamiento normal intentando conseguir un efecto fisiológico, como por ejemplo en el
caso de utilización de un electrobisturí. La tabla 2.1 muestra las corrientes de fuga en mA
de primer fallo para diversos tipos de equipos.
27
Tabla 1. Corrientes de fuga de primer fallo para diferentes equipos.
28
Figura 28. Sistema de alimentación con aislamiento por transformador con un monitor de
aislamiento de línea para detectar derivas a tierra.
29
COMPROBACIÓN DE ENCHUFES.
Los enchufes deben tener una conexión adecuada y poseer los valores de tensión para los que se han
diseñado. Los enchufes deben constar de tres terminales (activo, neutro y masa) por lo que pueden
producirse diversos fallos:
a) Alguna conexión abierta o inexistente (3 casos posibles). b) Hilos intercambiados (3 casos posibles). En
la figura 30 se muestra un dispositivo para comprobar el estado del enchufe. En este caso posee tres
3 3
led con lo que puede detectar hasta 8 situaciones diferentes (2 ) de las 4 posibles (existen tres
contactos y cada uno puede tener 4 estados: abierto, activo, neutro y tierra).
RESISTENCIA DE TIERRA.
Consiste es hacer circular por el terminar de tierra una corriente elevada ( 1A) y comprobar la tensión entre
tierra y el neutro. La resistencia obtenida en cualquier caso debe ser inferior a 0.2S. Esta prueba nunca
debe hacerse cuando exista riesgo de microshock, y en general cualquier riesgo para los pacientes o
personal sanitario. Esta resistencia entre ramas de distinta tierra debe ser inferior a 0.5 S y entre
paneles de distribución diferentes inferior a 1.0 S.
30
Figura 31. Comprobación de la resistencia tierra-chasis del equipo.
Figura 32. a) Comprobación de la corriente de fugas del chasis. b) Circuito que se utiliza para
medir la corriente de fugas.
31
daños en el paciente. En estos contactos pueden existir diversos tipos de fugas: fugas a tierra, fugas entre
pares de electrodos o entre cada uno y los demás. Al mismo tiempo debe prestarse especial atención en el
aislamiento de los electrodos.
La corriente de fuga en este caso debe ser inferior a 50 :A. En cables aislados esta corriente debe ser
inferior a 10 :A. Estos electrodos o cables aislados deben utilizarse para conectar catéteres o
electrodos en el corazón. Para medir estas corrientes debe estar conectado el paciente tal y como
puede apreciarse en la figura 33.
Corrientes de fuga también pueden producirse entre pares de electrodos o entre cada uno y los demás. En la
figura 34 se muestra un circuito para realizar esta medida.
32
Figura 34. Comprobación de las fugas entre los cables conectados al paciente.
Finalmente, puede producirse corrientes de fugas a través de los cables del paciente hacia tierra si se aplicase
una tensión de alimentación o red donde el paciente se colocaría. De esta manera puede comprobarse el
aislamiento electrodos-tierra ante conexiones de la red a cada electrodo. La figura 35 muestra un circuito para
realizar esta medida.
Figura 35. Comprobación del aislamiento electrodo-tierra a una tensión igual a la de la red.
33
BIBLIOGRAFIA
http://www.depeca.uah.es/wwwnueva/docencia/BIOING/ib/
http://www.diagnose-me.com/
http://info.med.yale.edu/intmed/cardio/imaging/contents.html
http://www.computer.privateweb.at/
34
ANEXO
En el cd adjunto al presente informe se grabaron las siguientes normas y guías de
seguridad:
35