Logica Dialectica
Logica Dialectica
Logica Dialectica
ENSAYO 3 PÁGINAS
CONVERSATORIO 25 05 22
Dialéctica marxista
Karl Marx convirtió la dialéctica en un método científico para explicar la evolución
de la sociedad y su relación con la naturaleza. Este método fue llamado
posteriormente por Engels como “materialismo histórico”. Esta teoría de Marx
afirmaba que el conflicto social era el elemento gracias al cual se iba desarrollando
la sociedad.
El motor que mueve esta evolución social es la lucha de clases, aquí está el
componente dialéctico. La historia del ser humano es la lucha entre los
poseedores de los medios de producción y los obreros, cuya única fuerza es su
trabajo. Así, esta contradicción no paraliza la historia, sino que, como diría
Heráclito, la dinamiza. La revolución, según Marx, sería la encargada de agilizar
este imparable cambio.
Por otro lado, en segundo lugar, la cuestión establece si los sucesos que se dan
en el planeta se suceden de forma aislada, o presentan dependencia. En este
sentido, la cuestión establece que, en base a la dialéctica, los fenómenos que se
producen en el mundo no son aislados el uno del otro. Para ello, Marx cuestiona si
el mundo está desarrollándose cualitativamente, así como de una forma
conectada. O, simplemente, si lo hacemos de forma estática y sin cambios
cualitativos.
La Ley de la dialéctica
La ley de la dialéctica se compone de tres leyes fundamentales:
Otros autores como León Trotski, fundador del Ejército Rojo, plantean que esta
consideración de Stalin es un error. En este sentido, Trotsky considera que el
materialismo dialéctico incluye, entre otros, al materialismo histórico.
Considerando, de esta forma, que no debe haber identidad entre ambos
materialismos.
OTRO CONCEPTO
Polémica filosófica[editar]
El materialismo dialéctico, como sistema filosófico, es opuesto al idealismo filosófico que
concibe al espíritu como el principio de la realidad. Para el materialismo dialéctico las ideas
tienen un origen físico, esto es, lo primero es la materia y la conciencia lo derivado. Como tal,
el materialismo dialéctico se apoya en los datos, resultados y avances de las ciencias y su
esencia se mantiene en correspondencia y vigencia con la tradicional orientación progresista
del pensamiento racional científico.4 Asimismo está opuesto a la corriente filosófica
del agnosticismo, pues declara la cognoscibilidad del mundo en virtud de su materialidad y de
su existencia objetiva en el tiempo y en el espacio. Engels lo manifestó de esta manera: «Las
formas fundamentales de todo ser son el espacio y el tiempo, y un ser concebido fuera del
tiempo es tan absurdo como lo sería un ser concebido fuera del espacio».5
Mi método dialéctico no sólo es en su base distinto del método de Hegel, sino que es directamente su
reverso. Para Hegel, el proceso del pensamiento, al que él convierte incluso, bajo el nombre de idea, en
sujeto con vida propia, es el demiurgo[*] de lo real, y lo real su simple apariencia. Para mí, por el
contrario, lo ideal no es más que lo material transpuesto y traducido en la cabeza del hombre. Yo he
criticado el aspecto mistificador de la dialéctica hegeliana hace cerca de 30 años, cuando todavía estaba
de moda [...] La mistificación sufrida por la dialéctica en las manos de Hegel, no quita nada al hecho de
que él haya sido el primero en exponer, en toda su amplitud y con toda conciencia, las formas generales
de su movimiento. En Hegel la dialéctica anda cabeza abajo. Es preciso ponerla sobre sus pies para
descubrir el grano racional encubierto bajo la corteza mística. [...] El movimiento lleno de contradicciones
de la sociedad capitalista se deja sentir para el burgués práctico del modo más impresionante en las
vicisitudes de los ciclos periódicos que atraviesa la moderna industria, vicisitudes cuyo punto culminante
es la crisis general.6
Leyes de la dialéctica[editar]
En su Anti-Dühring, Engels expone que las tres leyes fundamentales de la dialéctica:
La lógica dialéctica[editar]
La lógica dialéctica fue concebida por Hegel en su obra Ciencia de la Lógica. Para él, el
llamado principio del tercero excluido, "algo es A o es no A, no hay un tercero", principio de no
contradicción que corresponde a un intelecto que quiere "rechazar de sí la contradicción",
"cuidando tan solo que las cosas no se contradigan, olvidando que con ellos no se suprime la
contradicción, sino que se la desplaza a otro plano, el de la reflexión".2021 En vez de eliminar la
contradicción, la convirtió en la clave de su sistema lógico.22
Para Marx y Engels la filosofía hegeliana tenía un carácter revolucionario,23 que fundaba la
lógica dialéctica como lógica del movimiento, de la evolución, del cambio,22 pero requería ser
reelaborada con el enfoque del materialismo, de manera que consideraron la dialéctica como
"la ciencia de las leyes generales del movimiento, tanto del mundo exterior como del
pensamiento humano" y así "la propia dialéctica del concepto se convertía simplemente en
reflejo consciente del movimiento dialéctico del mundo real".23 Las bases de la lógica dialéctica
del marxismo quedaron planteadas en el Anti-Dührin y en la Dialéctica de la Naturaleza de
Engels. Su trabajo fue continuado entre otros por primera vez por V. I. Lenin en su
obra Materialismo y empirocriticismo. El mismo Lenin en 1914, estudió detenidamente la
lógica dialéctica y anotó cuestiones fundamentales sobre la misma, en los
denominados Cuadernos Filosóficos.21 Lenin definió cuatro demandas básicas para su
construcción:
1. Introducción Cada ser humano tiende a pensar y a reflexionar sobre las cosas y situaciones
de una manera característica, con patrones de pensamiento relativamente repetitivos, en
especial cuando las situaciones también lo son. A partir de observaciones y reflexiones
realizadas en torno a esta situación, algunos investigadores han propuesto la hipótesis de
la existencia de Estilos de Pensamiento (Sternberg, 1988; Sternberg, 1999; Padrón, 2008;
Padrón, 2014), considerando primordialmente que: La función cognitiva evoluciona con el
crecimiento y desarrollo del individuo y, ante determinadas circunstancias, suele hacerse
cada vez más eficiente: tanto su potencia como los alcances de la abstracción y los niveles
de consistencia tienden a ir aumentando con el tiempo y las experiencias. Los individuos
se diferencian y se asemejan entre sí por el modo particular en que opera su función
cognitiva, debido, entre otras cosas, a que la realidad circundante no es la misma para
todos ni tampoco lo es el sistema de condiciones de exposición al mundo ni su historial de
logros cognitivos. Este proceso de modelación o de construcción de representaciones
mentales del mundo, tal como se ha caracterizado, implica el procesamiento de
información y la solución de problemas informacionales de ciertas maneras características.
La idea subyacente es que, a medida que progresa el historial de logros cognitivos, el
individuo tiende a identificar aquellos patrones operativos mediante los cuales su función
cognitiva rinde más y mejores éxitos y tiende, en consecuencia, a privilegiar dichos
patrones ante próximos retos cognitivos, situaciones de procesamiento de información y
solución de problemas (Padrón, 2008). Bajo estas consideraciones, en la sociedad se
puede identificar a grupos relativamente bien diferenciados de individuos que comparten
entre sí el hecho de tener Estilos de Pensamiento (“formas de pensar”) y de realizar
acciones cognitivas de manera similar entre sí. En este sentido, Padrón (2014)
considerando lo propuesto por investigadores como Sternberg & Lubart (1997), menciona
que los tres Estilos de Pensamiento más comunes y predominantes en la especie humana
son: el Inductivo-Concreto, el Deductivo-Abstracto y el Intuitivo Vivencial; en general,
toma en cuenta para ello la concepción clásica de la personalidad fundamentada en tres
factores: los sentidos (la observación controlada), el cerebro (el razonamiento) y el
corazón (las vivencias e introspecciones). A la vez considera que la ubicación de una
persona en uno de estos tres estilos durante el cien por ciento del tiempo (y, por tanto, de
su vida) no necesariamente es la regla; de hecho puede haber momentos en que el
individuo cambie de estilo de pensamiento, momentánea o definitivamente, o se ubique
en las zonas de contacto entre dos de estos estilos e incluso, aunque raras veces, en la
zona de contacto de los tres. En vista de que los científicos al fin y al cabo también somos
seres humanos, resulta lógico pensar que nuestras formas de realizar investigación se
basan en dos componentes fundamentales: nuestros estilos propios de pensamiento al
momento de realizar una investigación (como vemos y concebimos al mundo) y el tipo de
observaciones investigativas que realizamos dentro de un campo científico específico. El
adentrarnos en experiencias investigativas y utilizar herramientas metodológicas de una u
otra ciencia o disciplina específica de manera recurrente, cuando decidimos tomar una
especialización por ejemplo, a su vez nos adentra en observar la actividad científica con un
enfoque técnico o epistemológico más o menos característico. Este enfoque técnico,
debido a que se basa fundamentalmente en conocimientos generados por otros científicos
de la misma disciplina o campo del saber va generando en el investigador un estilo de
pensamiento modificado, ampliado, enriquecido, en lo que algunos estudiosos denominan
a su vez el Enfoque Epistemológico del investigador (Camacho, 2000; Padrón, 2007;
Padrón, 2014). 2. Los estilos de pensamiento Según Valadez (2009), la hipótesis de los
Estilos de Pensamiento pretende dar cuenta tanto de los aspectos cognitivos como de los
rasgos de personalidad que un individuo muestra en su vida cotidiana y, por tanto,
también en sus actividades de aprendizaje. Esta hipótesis emerge de los estudios de la
inteligencia. A través de los Estilos de Pensamiento, Sternberg (1988) buscó indagar los
procedimientos para accionar la inteligencia, los consideró como métodos para organizar
la cognición o modos de pensar que utiliza un individuo para resolver problemas en un
contexto o tarea específica; además planteó que estos estilos suelen ser compartidos por
varios individuos a la vez. También resulta importante mencionar que el Estilo de
Pensamiento o forma de pensar de un individuo resulta fundamental en las diferentes
fases de adquisición de un nuevo conocimiento en contextos formales e informales
(Atehortúa, 2010; González et al., 2008; Yánez, 2016). A continuación se describe una
caracterización comentada de manera pragmática sobre los estilos de pensamiento y las
características de las personas que los poseen, basada en lo propuesto en su momento por
Herrmann (1991), Hernández & Padrón (1997) y Padrón (2014): 2.1. Individuos en los que
predomina el Pensamiento Inductivo-Concreto En estas personas prima el conocimiento
que se recibe a través de los sentidos. Los hechos concretos y la inducción son sus
preferidos. Son observadores acuciosos, prácticos, pendientes del mundo circundante y
sus elementos. Construyen generalizaciones sobre las cosas y eventos a partir de
observaciones de casos concretos, van frecuentemente de lo particular a lo general. El
arquetipo de estas personas puede observarse en ingenieros de diferentes disciplinas,
médicos, banqueros, químicos, biólogos, científicos de ciencias exactas, inventores,
abogados. Este tipo de pensamiento corresponde a un manejo predominante del
Cuadrante A de Herrmann. 2.2. Individuos con Pensamiento Deductivo-Abstracto En ellos
predomina el razonamiento por sobre la percepción sensorial, los argumentos, la
deducción por sobre los hechos observados u observables. Tienden a conceptualizar con
frecuencia; viven orientados hacia el mundo de las ideas. Construyen información más fina
mediante derivación a partir de conocimientos universales, van de lo general a lo
particular. El arquetipo de estas personas se encuentra encarnado en los individuos
lógicos, los pensadores, planificadores, administradores, los de ideas abstractas; este tipo
de pensamiento corresponde al Cuadrante B de Herrmann. 2.3. Individuos en los que
predomina el Pensamiento Intuitivo-Vivencial En estas personas priman las vivencias, las
experiencias vividas (no imaginadas), los mecanismos de empatía e introspección: no
pueden entender algo por completo si no lo viven y experimentan por sí mismos. Tienden
a ser intuitivos, empáticos, emocionales, sensibles, construyen a partir de reflexiones
basadas en vivencias propias o internas. Los arquetipos de estas personas suelen ser, por
su alto nivel de empatía, los maestros, comunicadores sociales, trabajadores sociales,
enfermeros, vivencialistas; este tipo de pensamiento corresponde al Cuadrante C
propuesto por Herrmann. 2.4. Individuos en los que predomina el Pensamiento Intuitivo
generalmente no Vivencial Estas personas se destacan por su estilo de pensamiento
conceptual, holístico, integrador, sintético, creativo, artístico, espacial, visual y metafórico.
En una conversación suelen saltar fácilmente de un tema a otro; de muy buena
imaginación, intuitivos, generalmente de discurso brillante; independientes; integran por
medio de imágenes y metáforas. Los arquetipos de estas personas suelen dedicarse a
actividades como las de: arquitectos, pintores, literatos, compositores, diseñadores
gráficos, escultores, músicos, soñadores; este tipo de pensamiento corresponde al
Cuadrante D de Herrmann. 3. El proceso investigativo y la gestión del conocimiento
científico Antes de adentrarnos en las características propias de los enfoques
epistemológicos que suelen mostrar los investigadores, vale la pena considerar algunas
reflexiones en torno a lo que es investigar y lo que es investigación en general. Los
esfuerzos por definir un concepto único de investigación no son nuevos y generalmente
han girado en torno a consensos y disensos frecuentes al interior de la comunidad
científica mundial. Como bien lo mencionan Padrón y Camacho (2000): -Estos esfuerzos se
muestran por lo menos desde la dinámica de las célebres disputas ocurridas en 1922 a
propósito de la constitución del llamado “Círculo de Viena”, pasando por las
argumentaciones de Popper y sus estudiantes, junto a las posturas de la “Escuela de
Frankfurt”, hasta llegar a las actuales confrontaciones alrededor de conceptos tales como
“investigación cualitativa vs. investigación cuantitativa”, “comprensión vs. explicación”,
“objetividad vs. subjetividad”, etc. Lo evidencia también, la gran cantidad de enfoques e
“ismos” existentes en la Filosofía y Metodología de la Ciencia: realismo, idealismo,
instrumentalismo, convencionalismo, operacionalismo, empirismo, racionalismo,
inductivismo, deductivismo, constructivismo, etc. -A tal punto ocurren estas divergencias
que hasta ahora nadie tiene la autoridad suficiente como para dictar un canon estricto y
específico respecto a cómo se debe investigar, más allá de aquel acuerdo generalizado
tácito según el cual “la investigación es un proceso de producción de conocimientos
esencialmente comunicable, replicable, evaluable y sometible a pruebas de fiabilidad”. La
superación de eventuales divergencias conceptuales puede surgir a partir de este acuerdo
o puede tardar mucho en ser superada, por ejemplo cuando los investigadores conforman
comunidades académicas alrededor de hipótesis epistemológicas y metodológicas y se
dedican a producir conocimientos, esperando que el éxito de dichas producciones
respalde o aumente progresivamente la confiabilidad y verosimilitud de su enfoque y
estilo de hacer ciencia. -Una implicación importante dentro de este escenario es que
cualquier investigación está en la obligación de legitimar sus propios modos de abordaje y
de resolución de problemas, frente a la gran divergencia de criterios existentes. Otra es
que, justo para lograr esa legitimación, una investigación debe definir y declarar sus
orientaciones de trabajo a partir de un cierto marco de convicciones epistemológicas y
metodológicas compartido por la comunidad académica en la que dicha investigación se
inscribe. -Así, las investigaciones se deben analizar, interpretar y evaluar solo a partir de
esas definiciones epistemológicas y de ese marco de convicciones. La calidad de un trabajo
académico será siempre determinable en relación con ese marco y esas definiciones y no
en relación a otros diferentes. -Igualmente, es importante que esos lineamientos de fondo
tengan referencias claras dentro de la historia de la ciencia, es decir, que se encuentren
apoyados por otras investigaciones de reconocido éxito en el plano mundial, que también
se hayan fundamentado en lineamientos similares. De lo anterior se infiere que
detenernos a intentar definir lo qué es investigar, buscando contentar a toda la
comunidad científica, pudiera terminar convirtiéndose en una larga tarea, cuyos productos
resultantes (definiciones de “investigación” y de “qué es investigar”) pudieran a su vez ser
aplaudidos y celebrados por los miembros de grupos científicos o disciplinares afines a la
definición propuesta, pero eventualmente discutidos y cuestionados por miembros de
grupos no afines. A pesar de que algunas ciencias y disciplinas pueden divergir entre ellas
en el concepto, siempre se puede proponer algunas propiedades fundamentales de lo que
es un adecuado proceso investigativo que busque generar y gestionar conocimiento
científico de una manera adecuada, compartidas seguramente en todas las ciencias. Para
ello, se retoma de manera comentada siete propiedades características de un buen
proceso investigativo, propuestas por Camacho (2000) y Padrón y Camacho (2000), a las
cuales se le añaden dos más: 1. Investigar no solo es medir y contar ni tampoco solo
experimentar: si redujésemos el acto de investigar a contar elementos o individuos, o
medir sus características más llamativas, o a llevar a cabo algún tipo de experimentos con
ellos, estaríamos reduciendo el acto investigativo a un trabajo más bien mecánico y
repetitivo; investigar es, esencialmente, razonar: el papel de las teorías y del desarrollo
teórico deductivo es, pues, lo fundamental en el proceso de investigar. Los conteos,
mediciones y experimentaciones son un trabajo auxiliar, necesario en ciertas fases de una
investigación o programa investigativo, que sólo tiene sentido dentro de un proceso
general e imprescindible de teorización mayor. 2. Investigar no solo es determinar
probabilidades de ocurrencia o no ocurrencia de eventos o características sobre la base de
técnicas estadísticas: ya que no todos los hechos o problemas en nuestro universo pueden
someterse a un marco de naturaleza probabilística, ni tampoco siempre se llega a
explicaciones absolutamente categóricas analizando la frecuencia con la que ocurren los
eventos de interés y manejando una hipótesis nula y una alternativa. Investigar es intentar
descubrir aquellas estructuras abstractas y subyacentes dentro del sistema o evento
investigado; por tanto, las herramientas de análisis estadístico y matemático, por más
potentes que sean, serán eso: herramientas que coadyuven a la mejor comprensión del
sistema abordado, pero no deben constituir por sí mismas el fin último de una
investigación. 3. Investigar no solo es dedicarse a hacer trabajo de campo: tanto o más
importante que la recolección de observaciones y datos observacionales es la decisión de
explicarlos mediante la argumentación y el razonamiento, vale decir, mediante la
formulación de teorías, mismas que en el futuro pudieran ser mejoradas o reemplazadas,
a la luz del avance de la ciencia. El razonar sobre los hechos es más importante que el
operar directamente con ellos. El investigador no es esencialmente aquél que se mueve
entre personas, cosas y experiencias, sino, sobre todo, el que se mueve entre ideas. La
deducción, y no la inducción, es la clave del descubrimiento. 4. Investigar no solo es
abordar hechos que solo puedan ser detectados por nuestros cinco sentidos: la evidencia
empírica no es la única garantía para el avance científico. También es posible estudiar y
elucubrar sobre procesos o elementos no directamente medibles u observables (por
ejemplo, en torno a las fuerzas gravitacionales entre Planetas, sistemas naturales de los
fondos oceánicos, cuestiones de la estratósfera que inciden en el clima troposférico),
mediante la formulación de modelos que imiten el funcionamiento del proceso, aun
cuando éste jamás pueda estar directamente a la vista. La evidencia racional, aquella que
se estructura en forma de argumentaciones y razonamientos, es un elemento también
primordial para el avance de la ciencia. 5. Investigar no solo es explicar concluyentemente
un problema ni agotar exhaustivamente sus posibilidades de estudio: más bien las
investigaciones particulares son aportes pequeños y modestos que, en conjunto, van
promoviendo aproximaciones cada vez más cercanas a la solución. El valor de cada trabajo
individual depende de la medida en que arroje alguna luz sobre el problema y en que
contribuya al avance del programa de investigación en que está ubicado. En ese sentido,
las conquistas y logros de una investigación serán siempre provisionales, graduales y
relativas a un programa o agenda colectiva de trabajo. 6. Investigar no es solo pensar
libremente sin control alguno, ni solo realizar retórica persuasiva: la investigación no es
especulación anárquica, aquélla respecto a cuyo contenido nadie podría decidir si es
erróneo o no, ni entender en concreto a qué realidades se está haciendo referencia; es
teorización controlada por reglas lógicas, totalmente evaluable y criticable, cuyo
contenido debe ser examinable y falseable y cuyos errores deben ser detectables. La
retórica, los discursos eminentemente estéticos y literarios, el cantinflerismo académico
(sensu Padrón, 2006), las intenciones de persuadir ideológicamente a las masas y de lograr
comportamientos convenientes, todo ello NO FORMA PARTE de un trabajo de
investigación serio. 7. Una investigación no puede ser realizada considerando un solo y
único enfoque o esquema de desarrollo: los problemas de la ciencia son tan variados y
pueden ser enfocados de modos tan diferentes que resulta absurdo pensar en un
algoritmo único para su resolución, no sólo en el nivel del trabajo de búsqueda y de
configuración de soluciones, sino también en el trabajo de comunicación de resultados, en
el que también resultan relativamente absurdos los esquemas cerrados de preparación de
tesis, artículos científicos, libros u otros. Tanto los protocolos cerrados de descubrimiento
y justificación, así como los de escritura científica y de comunicación de resultados, ambos
constituyen invenciones particulares, diseños humanos específicos, donde lo que cuenta
es la eficiencia del abordaje con respecto al problema y a los objetivos de trabajo. Una
investigación será de mayor o menor calidad en la medida en que sea coherente con sus
lineamientos y eficiente para unos logros planteados, pero no en la medida en que se
acoja rígidamente a un determinado patrón o accionar previamente establecido.
Considerando estas siete propiedades, la investigación debe entenderse como un proceso
de razonamiento controlado por la lógica y la experiencia. Además, se asume que el valor
del conocimiento radica en su poder generalizador y universal, mucho más que en la
consideración de situaciones particulares y/o circunstanciales. A estas siete propiedades,
deben añadírseles dos más de manera ineludible, mismas que en su momento Camacho y
Padrón (2000) todavía no contemplaron: 8. Una investigación no puede ser jamás un
proceso realizado en todas sus fases por un solo individuo: a pesar de que existan en el
mundo científicos geniales, que desarrollen grandes investigaciones y propuestas teóricas,
el hecho mismo de la investigación contemporánea depende del trabajo de grupos de
investigadores cercanos o no físicamente, que aborden un problema de investigación
determinado, con enfoques o actividades epistemológicas complementarias. Así, esta
dinámica permite la generación de conocimiento científico nuevo. Igualmente, cabe
mencionar que un proceso de investigación necesita además y de manera ineludible de
uno o más investigadores principales, investigadores de apoyo, auxiliares de investigación,
personal de apoyo logístico, etc. Mientras más solo o aislado se encuentre un investigador,
menos conocimiento científico e impacto en la comunidad científica mundial generará. 9.
Investigar no solo es leer información en una biblioteca, o descargarse información desde
internet y colocarla en un procesador de textos: la lectura o búsqueda de información
base, por más asidua que sea, solo es un paso más en la investigación científica. Debe
romperse una creencia mal conceptualizada en el común de la gente cuando menciona
que alguien “está investigando” cuando simplemente busca y baja información desde
internet y la copia más o menos ordenadamente en un procesador de texto. Esto, de por sí
es solo un acto mecánico mediado medianamente por la mayor o menor capacidad de
organización de información que tenga el individuo, con la finalidad de construir un
documento (para cumplir con una tarea de su colegio o universidad, por ejemplo); de
ninguna manera puede concebirse como una investigación. De hecho los documentos
construidos de esta manera, a partir de parches de información obtenidos de diferentes
fuentes, pudieran eventualmente adolecer de un nivel importante de plagio. Por tanto, un
verdadero proceso de investigación científica debe combinar de una manera armónica los
aspectos más relevantes y positivos de las nueve propiedades anteriores, a lo largo de dos
fases: una descriptiva y una segunda que bien puede tomar la línea explicativa, contrastiva
o aplicativa: FASE DESCRIPTIVA: en este momento la estructura documental todavía no
permite tener o generar hipótesis o ideas de investigación precisas, más bien el
investigador se concentra en efectuar un proceso indagatorio pormenorizado del objeto o
sistema de interés y busca generar o construir la línea teórica base, el diagnóstico del
sistema, el estado del arte en el campo disciplinario, u otro término similar que quiera
dársele. FASE EXPLICATIVA: en la que prima la explicación de los eventos o fenómenos a
través del razonamiento, por ejemplo en el trabajo que efectúan los físicos teóricos. En
esta forma de investigación pueden formularse hipótesis pero de naturaleza teórica,
generalmente no comprobables a través de una experiencia práctica. FASE CONTRASTIVA:
se fundamenta principalmente en el desarrollo de trabajos prácticos de laboratorio o de
campo. En estos casos el único marco teórico es la teoría específica que sostiene tal
investigación. Es una fase en la que pueden formularse hipótesis, y éstas son
comprobables probabilísticamente, debido a que se puede recolectar suficiente
información para ello. FASE APLICATIVA O TECNOLÓGICA: concentrada en los trabajos
investigativos que generen aplicaciones, invenciones, elementos o procesos patentables.
Una investigación aplicativa responde a una necesidad práctica de un grupo social o zona
geográfica determinados. 4. Los enfoques epistemológicos en los investigadores
Considerando a la hipótesis de la existencia de Estilos de Pensamiento como cierta,
entonces cada científico debe también tener una forma de pensar primaria y
característica, como ser humano que también es; este estilo no necesariamente será
inmutable a lo largo de toda su carrera científica, se modificará eventualmente de acuerdo
a la información que reciba y a las experiencias de vida, científicas o no, que tenga. El
mantenimiento o modificación de su Estilo de Pensamiento además de ser originado por
sus experiencias de vida, también lo será por el desarrollo de sus investigaciones en un
campo específico, por procesos de indagación recurrentes en una o varias disciplinas de su
interés, el contacto continuo con pares, entre otros. La consolidación de un Estilo de
Pensamiento sumada a las diferentes experiencias de vida de un investigador
desembocará tarde o temprano en la maduración de un Enfoque Epistemológico
predominante en tal personaje, que aparecerá más o menos recurrentemente en su vida
cotidiana (de Berrios & Briceño, 2009; Padrón, 2007; Padrón, 2014; Rivero, 2000), al
menos hasta que no tenga un estímulo lo suficientemente fuerte como para que lo haga
cambiar de Enfoque. Para dar cuenta de las diferencias entre enfoques epistemológicos se
han propuesto algunas clasificaciones. Se retoma en el presente artículo aquella que hace
hincapié en dos criterios (la forma de obtener o crear conocimiento y el rol primordial bien
sea del objeto o del sujeto de investigación al generar la información). Con esta estructura
se logran obtener tres tipos fundamentales de Enfoques Epistemológicos propios de
investigadores (Padrón, 2000) y un cuarto, necesario en la categorización, característico de
personas que no efectúan investigaciones (Tabla 1). Cada uno de los enfoques se
encuentra a su vez correlacionado con un Estilo de Pensamiento específico. Tabla No. 1
Clasificación de los Enfoques Epistemológicos considerando la fuente primaria del
conocimiento y la predominancia del sujeto o del objeto de investigación en el proceso
PREDOMINANCIA DEL OBJETO O DEL SUJETO DE INVESTIGACIÓN REALISMO U
OBJETIVISMO (el rol del objeto de investigación predomina en el proceso investigativo)
IDEALISMO O SUBJETIVISMO (el rol del sujeto que investiga o indaga predomina en el
proceso) FUENTE PRIMARIA DEL CONOCIMIENTO RACIONALISMO: prima en el
investigador el razonamiento, los conocimientos se generan a través del uso continuo y
pertinaz de la razón; nunca o casi nunca hacen trabajo de campo (porque no quieren,
porque no pueden o porque no lo consideran necesario). ENFOQUE RACIONALISTA -
DEDUCTIVO o Racionalista-Objetivista Algunos personajes: Charles Darwin (en su fase
racionalista posterior a sus célebres viajes), Albert Einstein, Noam Chomsky, Stephen
Hawking. Casi nunca realizan trabajo de campo; pero estructuran razonamientos
ENFOQUE RACIONALISTASUBJETIVISTA o VivencialistaInterpretativista Algunos personajes:
Platón y algunos otros filósofos griegos o modernos pero de accionar clásico, San Agustín.
Nunca realizan trabajo de campo; estructuran razonamientos a veces muy teóricos
importantes basados en inferencias complejas o el conocimiento fáctico generado por
otros. Enfoque derivado del Estilo de Pensamiento DEDUCTIVOABSTRACTO. buenos pero
sin fundamento fáctico. De hecho, en la práctica, no son investigadores científicos, sino
más bien libre pensadores. Enfoque derivado del Estilo de Pensamiento INTUITIVO
generalmente NO VIVENCIAL. EMPIRISMO: prima en el investigador la experiencia
concreta, los conocimientos se generan fundamentalmente por lo que detectan nuestros
sentidos. Estos científicos hacen mucho trabajo de campo, casi todo el tiempo. Buscan
alcanzar muestras representativas. ENFOQUE EMPIRISTA – INDUCTIVO o
EmpiristaObjetivista. Algunos personajes: Gregor Mendel, Burrhus Skinner, Rudolf Carnap.
Generalmente aplican análisis matemáticos y estadísticos duros a sus datos. Enfoque
derivado del Estilo de Pensamiento INDUCTIVO-CONCRETO. ENFOQUE INTROSPECTIVO –
VIVENCIAL o EmpiristaSubjetivista o VivencialistaExperiencialista Algunos personajes:
Dianne Fosey (de Gorilas en La Niebla), Beethoven, científicos como los antropólogos
culturales. El investigador se introduce de lleno en la investigación, no solo la observa o
mide, la vive. Generalmente aplican análisis cualitativos a sus datos. Enfoque derivado del
Estilo INTUITIVOVIVENCIAL. Algunas otras características importantes de estos cuatro
enfoques a continuación (los tres primeros resumidos y comentados a partir de lo
propuesto por Padrón, 2000): - El enfoque Empirista-Inductivo (también llamado
probabilista, positivista, atomista lógico): en este enfoque se concibe como producto del
conocimiento científico a los patrones de regularidad de un objeto o evento; de esta
manera, la diversidad o multiplicidad de fenómenos del mundo puede ser reducida a
patrones de regularidad basados en frecuencias de ocurrencia. El supuesto básico aquí es
que los sucesos del mundo (tanto materiales como humanos) obedecen a ciertos patrones
visibles o mensurables cuya regularidad puede ser establecida gracias a la observación de
sus repeticiones (empirismo), lo cual a su vez permite generar inferencias probabilísticas
sobre sus comportamientos futuros. En ese sentido, conocer algo científicamente equivale
a conocer tales patrones de regularidad. Como consecuencia tanto las vías de acceso al
conocimiento como los mecanismos para su producción y validación primordialmente son
los sentidos y sus prolongaciones (instrumentos de observación y medición), ya que los
patrones de regularidad se captan a través del registro de repeticiones de eventos. Por
tanto, es el método Inductivo, sustentado en el poder de los instrumentos sensoriales y en
el valor de los datos de la experiencia el sistema de operaciones privilegiado dentro de
este enfoque. El conocimiento, entonces, es un acto de descubrimiento de patrones de
comportamiento de la realidad. Elementos como la medición, la experimentación y los
diseños experimentales, los tratamientos estadísticos, la instrumentación refinada, los
gráficos y diagramas estadísticos, el discurso directo y preciso, etc., son los mecanismos
altamente preferidos en este Enfoque. - El Enfoque Racionalista-Deductivo (también
llamado deductivista, teórico o teoricista, racionalista crítico): en él se concibe como
producto del conocimiento científico el diseño de sistemas abstractos dotados de un alto
grado de universalidad que imitan los procesos de generación y de comportamiento de
una cierta realidad. Según esto, el conocimiento es más un acto de invención que de
descubrimiento, en el que prima el razonamiento por sobre los sentidos. Los sistemas
teóricos son el producto por excelencia del conocimiento científico y ellos se inventan o se
diseñan, no se descubren. A su vez, los sistemas teóricos se basan en grandes conjeturas o
suposiciones arriesgadas acerca del modo en que una cierta realidad se genera y se
comporta. No es tan importante que un diseño teórico sea el fiel reflejo de un sector del
mundo, es más importante que imite de manera esquemática y abstracta el sistema de
hechos reales que pretende explicar. Tanto las vías de acceso al conocimiento como los
mecanismos para su producción y validación se encuentran dados por la razón, la cual
viene a ser (según este enfoque) el recurso más seguro para diseñar esquemas abstractos
que nos revelen el surgimiento y el comportamiento de los hechos materiales y humanos,
gracias al poder que tiene la razón para asociar los conocimientos previamente diseñados
con cada nueva incógnita, pregunta o problema. Por tanto, es el método Deductivo,
sustentado en el poder de los razonamientos, el sistema de operaciones privilegiado
dentro de este enfoque. Cosas como las modelaciones lógico-formales, los gráficos y
diagramas descriptivos y explicativos, las búsquedas a partir de abstracciones
matemáticas, los sistemas de razonamiento en cadena, la creación de modelos teóricos,
etc., son mecanismos altamente preferidos. Para ellos no solo es importante comprender
un suceso, si no poder transmitir tal comprensión a los demás, explicándola. - El Enfoque
Introspectivo-Vivencial (también llamado sociohistoricista, fenomenológico, dialéctico-
crítico, simbólico-interpretativo, psicologista, hermenéutico): en este enfoque se concibe
como producto del conocimiento las interpretaciones de los simbolismos socioculturales a
través de los cuales los actores de un determinado grupo social abordan la realidad
(humana y social, fundamentalmente). Más que interpretación de una realidad externa, el
conocimiento es interpretación de una realidad tal como ella aparece en el interior de los
espacios de conciencia subjetiva. Lejos de ser descubrimiento o invención, en este
enfoque el conocimiento es un acto de comprensión de una realidad. El papel de la ciencia
es concebido como un mecanismo de transformación y emancipación del ser humano y no
como simple mecanismo de control del medio natural y social. Se hace énfasis en la noción
del sujeto y de una realidad subjetiva, por encima de la noción de objeto o de realidad
objetiva. En cuanto a la vía de acceso, producción y legitimación del conocimiento, en este
enfoque la vía más apropiada es una especie de simbiosis entre el sujeto investigador y su
objeto de estudio, una especie de identificación sujeto-objeto, tal que el objeto pase a ser
una experiencia vivida, sentida y compartida por el investigador (el investigador frecuente
y voluntariamente forma parte del sistema investigado). El conocimiento se produce en la
medida en que el investigador es capaz de distinguir todos aquellos factores pre-teóricos e
instrumentales que mediaticen la relación sujeto-objeto, de modo que pueda llegar a una
captación de la verdadera esencia del objeto, más allá y por encima de sus apariencias.
Cosas como la interpretación hermenéutica, la convivencia y desarrollo de experiencias
socioculturales, los análisis dialécticos, las intervenciones en espacios vivenciales y en
situaciones problemáticas reales, los estudios de casos, etc., son aparatos de trabajo
altamente preferidos dentro de este enfoque. - Finalmente, el Enfoque Racionalista-
Subjetivista es propio de personas que no pueden ser consideradas como investigadores
científicos, aunque pueden tener razonamientos, ideas y propuestas interesantes, pero
generalmente sin fundamento fáctico. Producen información básica, por ejemplo la del
mundo que nos rodea, mayormente de tipo descriptivo y/o normativo. La gente que se
comporta así crea sus propias realidades de acuerdo a sus percepciones particulares, a
veces muy a pesar de lo que la mayoría pueda pensar y/o apreciar. Los Enfoques
Epistemológicos Racionalista-Deductivo, Empirista-Deductivo e IntrospectivoVivencial
conviven de manera conjunta en el interior de la mayoría de científicos en mayor o menor
medida; sin embargo, generalmente uno de ellos suele mostrarse como predominante la
mayor parte del tiempo. Esta predominancia de uno u otro en la vida del investigador,
como se mencionó anteriormente, dependerá de sus experiencias de vida, el tipo de
proyectos que desarrolle, la disciplina o disciplinas científicas a las que se dedique, el tipo
de pares con los que se rodee, principalmente. 5. Conclusiones Los seres humanos y, por
lo tanto, también los científicos, somos producto de diferentes cualidades individuales
internas pero también sociales, mismas que se originan o generan a su vez de diferentes
factores a lo largo de nuestras vidas que incluyen desde nuestra herencia genética, las
costumbres familiares, los conocimientos y hábitos adquiridos en ambientes educativos y
laborales, los sitios donde interactuamos socialmente, entre otros. Así, y a partir de un
principio básico que considera que un ser humano vive, ve el mundo, trabaja, se
interrelaciona con los demás priorizando: en unos individuos el rol del corazón (esfera
afectivo emocional), en otros el del cerebro (esfera intelectual), y en otros el de los ojos y
los sentidos (esfera sensorial), se puede mencionar también que cada ser humano
desarrolla y vive mucho más mostrando mayormente uno de cuatro Estilos de
Pensamiento fundamentales, que le permiten desenvolverse con mayor o menor éxito en
los ámbitos familiar, social y profesional: el Inductivo Concreto, el Deductivo Abstracto, el
Intuitivo Vivencial o el Intuitivo no Vivencial. En los científicos, los tres primeros Estilos de
Pensamiento maduran, evolucionan y se vuelven más complejos debido a las propias
características y actividades que efectúan cotidianamente y dan lugar de manera
correlativa a tres Enfoques Epistemológicos característicos: el Empirista Inductivo, el
Racionalista Deductivo y el Introspectivo Vivencial, respectivamente. Por lo general, uno
de estos Enfoques termina siendo preeminente en cada científico y más bien son poco
comunes aquellos escenarios en los que dos o tres Enfoques son equipotentes al interior
del pensamiento y accionar de un investigador. Dentro de este contexto, cabe mencionar
que ni uno ni otro de estos Enfoques es mejor o peor. De hecho, para que la ciencia
avance de una manera activa y se generen conocimientos científicos provechosos, resulta
necesario contar con todos ellos de manera simultánea en el mundo contemporáneo, en
diferentes investigadores, ciencias y disciplinas.
Otro concepto
RESUMEN
INTRODUCCIÓN
El desarrollo del conocimiento en la ciencia tiene lugar por la contradicción entre el tipo
de estimulación social del conocimiento y el tipo de conocimiento que se ha acumulado
por la sociedad, es decir, aquellas particularidades de la organización del conocimiento
que resultan dominantes en la etapa contemporánea del desarrollo de la ciencia.
Este mismo principio es el que tiene lugar en el surgimiento del conocimiento activo
transformador. Llega un momento en que la sociedad requiere de un tipo de
conocimiento nuevo para poder resolver sus problemas. En la etapa actual, en la que
se hace cada vez más evidente la complejidad de los fenómenos de la realidad en que
vive el ser humano, se demanda por la sociedad un tipo de conocimiento que sirva de
guía para la transformación del mundo, es decir, del conocimiento "activo
transformador"2 que implica la transformación del conocimiento empírico.
¿Cuáles son las limitaciones que presenta el conocimiento empírico para que sirva de
orientación a los efectos de transformar con efectividad la compleja realidad del mundo
actual, cuando está en riesgo hasta la existencia del Planeta? ¿Cuáles son las
características de este nuevo tipo de conocimiento que debe ser gestionado?
Con el tiempo en la dinámica del desarrollo del tipo de conocimiento empírico aparecen
cambios sustanciales. En concordancia con la regularidad general de la interrelación
entre los tipos de conocimientos, el número de investigaciones empíricas se eleva;
pero el conocimiento se hace no generalizable. En el contexto del conocimiento
empírico emerge un nuevo tipo de conocimiento: el activo transformador.
3. Describe los modos de influencia que provocaron los efectos deseados. Estas
descripciones representan las regularidades empíricas que se emplean para satisfacer
las necesidades sociales y la construcción de teorías empíricas.
4. Las teorías empíricas solamente son suficientes para aquellas tareas que se
desarrollan en situaciones donde el estado del objeto de influencia permanece
suficientemente cercano al estado del momento de la investigación. Los criterios para
escoger los ángulos del objeto de investigación son subjetivos.
Se debe subrayar que desde la perspectiva histórica del desarrollo del conocimiento
científico, el conocimiento empírico constituye un tránsito hacia un tipo de
conocimiento superior que algunos autores denominan de diversas formas, por
ejemplo, B. S. Bratus4 como «analítico transformador»; Ya. A. Ponomariov, como se ha
señalado, «activo transformador», entre otros.
Por consiguiente, para lograr la eficacia y eficiencia del sistema de búsqueda, una
condición básica es el movimiento de un nivel a otro, tanto al clasificar un documento
como al recuperarlo. Únicamente de esta manera es posible que el conjunto general de
una serie de transformaciones pueda tener al final el efecto de la interacción en los
límites de una forma, o sea, del usuario.
La lógica genética funciona con gran éxito allí donde las representaciones superficiales
de las relaciones causa-efecto coinciden con los requisitos del contenido de las tareas
que se resuelven. Es decir, cuando no se requiere abrir la "caja negra" y descubrir las
interacciones internas de los fenómenos; por ejemplo, cuando se realiza un estudio de
usuarios para conocer por qué ellos hacen un uso insuficiente de los servicios de la
unidad de información con el objetivo de mejorar estos servicios e incrementar su uso.
Esta es la tarea que se aspira a resolver con ese estudio.
Con este ejemplo se ilustra con claridad que el conocimiento empírico tiene implícito a
aquella lógica que tiende a liberarse del subjetivismo a partir de los datos de la
realidad. Consideramos que en el estadio empírico del desarrollo de la gestión del
conocimiento, con los medios de generalización alcanzados mediante la comparación,
es decir, con los medios a los cuales ya se tiene acceso en el conocimiento descriptivo
explicativo, se añaden generalizaciones empíricas que operan sobre los conocimientos
de las leyes empíricas, tanto en el orden funcional como en lo referido al origen de los
fenómenos, a pesar de las limitaciones por la superficialidad (al no considerar las
interacciones internas de los fenómenos) de las representaciones sobre las relaciones
de causa-efecto.
De las características generales del tipo de conocimiento empírico se deduce que las
ideas que guían a este tipo de investigaciones surgen frecuentemente sobre la base de
la correcta o incorrecta toma de conciencia de las tareas prácticas, y las propias
investigaciones están dirigidas directamente al logro de unos u otros efectos prácticos.
Es verdad que no son pocas las investigaciones empíricas sobre la gestión del
conocimiento que han alcanzado estos objetivos, y han generado posibilidades de
dirigir en función de determinados fines unos u otros eventos concretos. Esto se
evidencia, por ejemplo, en las tesis de grado que se fundamentan a partir de
investigaciones empíricas dirigidas a resolver determinados problemas de la práctica
social directa.
Sin embargo, en las investigaciones empíricas, los mecanismos internos se mantienen
desconocidos (tienen en cuenta únicamente las entradas y las salidas, y no se hace
transparente la "caja negra"), y por esto los cambios esenciales y suficientes de las
condiciones de una situación concreta hacen que la solución encontrada no sea
adecuada: ha sido imposible incluirle las correcciones necesarias ya que no se
consideran las interacciones internas de los fenómenos que se estudian.
De esta manera surge la necesidad de nuevas búsquedas empíricas. Pero en ellas, los
mecanismos de dirección que sobrepasan los límites de la experiencia directa, del
sentido común, del experimento empírico, se mantienen cerrados en una «caja negra».
Como se sabe, un nuevo tipo de conocimiento se forma sobre la base del tipo anterior.
Esto lo posibilita la tendencia que se ha desarrollado con el nombre de enfoque por
niveles estructurales. En este enfoque se han formado las bases del principio sistémico
estructural contemporáneo que ha desarrollado las ideas sobre los problemas
complejos, la complejidad y otros****.
Aquí el objeto se entiende como cualquier elemento de la realidad con el cual el ser
humano puede establecer una función de señal (basada en signo, símbolo) productiva,
por lo que puede ser un fenómeno, cosa u otra persona. La contemplación, descripción
y explicación del objeto caracterizó el conocimiento descriptivo explicativo en el
contexto de la gestión del conocimiento. 7
Con el conocimiento empírico tiene lugar la tendencia a estudiar no solo al objeto, sino
también al sujeto. Ambos son sometidos a estudio en el contexto de la gestión del
conocimiento. Este nuevo ingrediente de la relación S-O acapara la atención de los
investigadores y se incrementan los estudios centrados en la concepción del usuario
como eje de la gestión del conocimiento. Las vías, medios, modos y métodos de
gestionar el conocimiento se enriquecen desde esta perspectiva, pero hasta ciertos
límites, por las propias características antes señaladas del conocimiento empírico. 8
Incluye un grupo de etapas de la posición más elevada del desarrollo del conocimiento
social. En el esquema S-O anteriormente señalado, ahora la investigación se centra
principalmente en otro ingrediente de la relación: la propia interacción.
En esencia, aquí tiene lugar por primera vez una suficiente fundamentación para la
división de las ciencias que estudian, de manera abstracta, los niveles estructurales de
organización de los fenómenos representados y que corresponden a las
representaciones sobre las formas de movimiento de la materia. Cada una de estas
ciencias establece los datos correspondientes a la forma de movimiento de la ley.
Desde la perspectiva expuesta se comprende que las interacciones que tienen lugar
entre las fuentes de conocimiento y los sujetos involucrados en los procesos de
aprendizaje organizacional exigen estrategias de investigación sistémico-estructural
compleja, cuyos resultados tengan un modelo analítico-sintético experimentalmente
comprobado que sirva de guía para la acción, y para el logro de niveles funcionales
ulteriores que hagan más eficaz y eficiente el funcionamiento de la organización.
CONCLUSIONES
Verdad relativa
El proceso del conocimiento del mundo y de las leyes que lo rigen es tan infinito como lo
es el mismo desarrollo de la Naturaleza y de la Sociedad. Nuestros conocimientos,
relativamente exactos, en esta o en la otra fase del proceso de la ciencia se profundizan y se
precisan cada vez más a medida que se desarrollan. Así, hasta principios del siglo XX, el
átomo era considerado indivisible, pero después se demostró que también el átomo está
integrado por electrones. La teoría electrónica de la estructura de la materia constituye un
avance amplio y profundo de nuestros conocimientos sobre la materia. Pero tampoco lo que
hoy sabe la ciencia respecto a la estructura de la materia es la última y definitiva verdad.
“…El materialismo dialéctico insiste en el carácter transitorio, relativo, aproximativo, de
todas estas etapas del conocimiento de la Naturaleza por la ciencia humana en progreso. El
electrón es tan inagotable como el mismo átomo, la Naturaleza es infinita” (Lenin). El
materialismo dialéctico, al afirmar el carácter relativo de la verdad de nuestro
conocimiento, considera al mismo tiempo, que cada verdad relativa marca un peldaño en la
posesión de la verdad absoluta (ver), que cada paso del conocimiento científico contiene
elementos de la verdad absoluta, es decir, de la verdad completa. No existe un límite
infranqueable entre la verdad relativa y la verdad absoluta. El conjunto de verdades
relativas en su desarrollo nos ofrece una verdad absoluta. “Cada escalón del desarrollo de la
ciencia aporta nuevos granos a esta suma que constituye la verdad absoluta; pero los límites
de verdad de cada tesis científica son relativos” (Lenin).
Diccionario filosófico marxista · 1946:314
Verdad absoluta
Cada grado del conocimiento está limitado por el nivel de la ciencia y las condiciones
históricas de la vida social, que inevitablemente hacen relativos, es decir, incompletos
nuestros conceptos de la naturaleza. Empero, siendo relativas las verdades que nuestro
conocimiento descubre, contienen, a la vez, partículas de la verdad absoluta, por cuanto
reflejan exactamente, aunque de modo incompleto, el mundo objetivo exterior. Por eso, el
conocimiento logrado mediante verdades incompletas y relativas nos aproxima a la verdad
absoluta, es decir, al conocimiento pleno y universal del mundo objetivo.
Sin embargo, un conocimiento que agotase el mundo objetivo, sería un absurdo. Ello
sólo sería posible en condiciones dadas, si el mundo material cesara de desarrollarse, se
detuviera en su movimiento y se agotase a sí propio. Pero, eso no será nunca. El mundo se
encuentra en estado de eterno cambio y renovación. Por consecuencia, el conocimiento, que
es reflejo racional del mundo exterior es también inagotable y nunca puede acabar, como
inagotable e infinito es el mundo.
Diccionario de filosofía y sociología marxista · 1959:108-109
Verdad relativa
El proceso del conocimiento del mundo y de sus leyes es infinito, como es infinito el
desarrollo de la naturaleza y de la sociedad. Nuestros conocimientos, en cada etapa dada de
su desarrollo, son verdaderos relativamente, profundizándose y concretándose cada vez
más, en la medida del desarrollo de la ciencia.
Así, el átomo se consideraba indivisible hasta principios del siglo XX, en que demostróse
que él, a su vez, está compuesto de electrones. La teoría electrónica de la constitución de la
materia representa un grado de profundización y extensión de nuestro conocimiento sobre
la materia. Empero, aún aquello que es actualmente conocido sobre la constitución de la
materia, no es la verdad última y definitiva.
El proceso del conocimiento del mundo y de sus leyes es tan infinito como el desarrollo
de la naturaleza y de la sociedad. En cada fase de la ciencia, nuestros conocimientos
dependen del nivel alcanzado por la experiencia, la técnica, la industria, &c. A medida que
progresan el conocimiento y la práctica humanas, nuestras representaciones de la naturaleza
se profundizan, se hacen más exactas, se perfeccionan. Por lo tanto, las verdades
establecidas por la ciencia en una época histórica determinada, lejos de ser definitivas,
completas, son necesariamente verdades relativas que deben ser desarrolladas, verificadas y
precisadas. Así, el átomo era considerado como indivisible hasta comienzos del siglo XX,
época en que se demostró que se compone de electrones y de protones. La teoría electrónica
profundiza y amplía nuestros conocimientos sobre la materia. Las nociones que tenemos
hoy del átomo, difieren sensiblemente de las nociones de fines del siglo XIX y comienzos
del siglo XX. En particular, han evolucionado nuestros conocimientos sobre el núcleo
atómico (ver). Pero los datos actuales de la ciencia sobre la estructura de la materia, no
constituyen la verdad definitiva y sin apelación: “...el materialismo dialéctico insiste
empero en el carácter temporal, relativo, aproximado, de todos esos jalones del
conocimiento de la naturaleza por la ciencia humana en progreso. El electrón es
tan inagotable como el átomo, la naturaleza es infinita...” (Lenin, Materialismo y
empiriocriticismo, p. 292, Ediciones Pueblos Unidos, Montevideo, 1948).
Las verdades son relativas, igualmente, en el sentido de que tienen un contenido concreto
determinado por condiciones históricas. Lo que es verdadero en ciertas condiciones, no lo
es ya en otras condiciones históricas. Así, la tesis de Marx y de Engels sobre la
imposibilidad de vencer el socialismo en un solo país aislado, era justa en la época del
capitalismo premonopolista, pero dejó de serlo después del advenimiento del imperialismo.
La nueva teoría de la revolución socialista, teoría creada por Lenin, muestra la posibilidad
de construir el socialismo en uno o en varios países aislados, y la imposibilidad de su
victoria simultánea en todos los países.
Verdad relativa
En las ciencias, fundamentalmente en las sociales, las ideologías no pueden excluirse - como ya
se ha demostrado - del proceso de investigación y de los productos del quehacer científico ya que
en ellos esta presente la relación sujeto cognoscente-objeto de conocimiento. La actividad del
investigador se ubica en un contexto social determinado y responde a un interés de clase que
pueda ser la de él o la de otra clase social.
¿Qué es ideología?
Puede decirse que todo hombre tienen una ideología, como concepción del mundo, de las cosas, y
que hay ideologías mas científicas que otras en cuanto se apoyan en los datos provenientes de las
ciencias para tener una visión mas completa y correcta de la realidad, y las cuales orientan a los
seres humanos en su practica diaria, así como dentro de un campo de la ciencia.
La ideología de un grupo social está condicionada por los intereses de clase, pero también las
distintas esferas ideológicas pueden influirse mutuamente (por ejemplo, la ideología política puede
recibir influencia de la religiosa) con lo cual se rechaza la postura reduccionista que consiste en
considerar que toda idea es producto necesaria e ineludiblemente de la relación que se tenga con
respecto, aunque el conjunto de ideas sobre la vida y la sociedad tiene una referencia directa e
indirecta en las condiciones materiales de existencia de cada grupo social. Asimismo, la ideología,
como ya se ha mencionado, orienta la acción de los hombres permitiéndoles mayores o menores
posibilidades para acercarse al conocimiento objetivo de la realidad social.
La ideología es:
c) Guía y justifica un comportamiento práctico de los hombres acorde con esos intereses,
aspiraciones o ideales.
La ciencia trata, pues, de acercarse a la verdad objetiva a fin de descubrir las relaciones,
dependencias y estructuras esenciales de la realidad como único camino para el establecimiento
de leyes científicas; pero en las ciencias, especialmente en las sociales, los valores de los
individuos (elementos fundamentales de la ideología) están presentes en el proceso de
investigación y en sus productos y pueden dificultar o facilitar el descubrimiento de la verdad
objetiva.
Los valores tienen una influencia prácticamente insignificante en la elaboración del conocimiento
en las ciencias naturales ya que lo que interesa aquí es alcanzar un conocimiento objetivo mas
completo y preciso como única forma de alcanzar un conocimiento objetivo mas completo y preciso
como única forma de tener dominio cada vez mayor de la naturaleza, aunque los valores se
encuentran presentes en la selección de los problemas que se estudian y en la utilización de los
productos del quehacer científico, las cuales responderán en gran medida a los intereses de la
dase que represente el investigador.
TEMA III: MAPA MENTAL. 21 06 22
Significado de Conocimiento
Qué es el Conocimiento:
El conocimiento es la acción y efecto de conocer, es decir, de adquirir información
valiosa para comprender la realidad por medio de la razón, el entendimiento y la
inteligencia. Se refiere, pues, a lo que resulta de un proceso de aprendizaje.
Teoría sociocultural.
Abstracción.
Tipos de conocimiento
En términos generales, se puede decir que existen dos grandes tipos de
conocimiento: el conocimiento a priori y el conocimiento a posteriori.
Conocimiento filosófico
El conocimiento filosófico se obtiene a través de la reflexión especulativa sobre la
realidad y el diálogo, y se orienta a la comprensión del ser y el estar del sujeto. Se
puede decir que es racional, analítico, totalizador, crítico e histórico.
Conocimiento empírico
El conocimiento empírico es el que se obtiene a través de la experiencia propia y
palpable, si bien no implica un método de estudio sino la conciencia sobre el orden
de lo vivido o experimentado. Aunque surge de la experiencia concreta, está
modificado por el universo de valores culturales del sujeto.
Conocimiento científico
El conocimiento científico es aquel que se adquiere a través del diseño planificado
de una investigación, el cual implica un proceso sistemático y metódico. El
conocimiento científico es verificable y demostrable. A su vez pretende ser crítico,
racional, universal y objetivo.
Conocimiento teológico
El conocimiento teológico tiene como base la aceptación de un conjunto de
valores y creencias derivadas de una revelación espiritual. En tal sentido, tiene un
carácter simbólico, ya que en él operan procesos de construcción de significados
por medio de símbolos.
TEMA IV: CONVERSATORIO 4 07 22
2. Estructura hipótesis, x = y
Para estructurar la afirmación con la que definir la hipótesis, Lizárraga
propone, primero, concretar el problema. De éste, identificar por un lado
la parte que conoces y, por el otro, la que desconoces o tu conjetura.
Una niña
Nueve años
Ha perdido el armazón
Ahora usa lentes de contacto
5. La prueba maestra
Para poder sustentar nuestra investigación, es necesario encontrar lo
que Lizárraga llama la prueba maestra, o el quid.
“Pensar en cuáles son las pruebas que necesitan conseguir con mayor
ahínco para lograr algo. Ponerle foco a qué a reportear, ese es el quid de
la investigación”, explica.
“¿Estoy seguro de que lo hizo? Claro que sí. ¿Lo puedo comprobar? No.
¿Qué hago entonces? Describir lo que he visto. No he llegado al fondo
del sistema, pero lo explico con un enfoque novedoso y profundo”,
expone Lizárraga.
Introducción
Existen al menos dos etapas de trabajo por las que cualquier investigador pasará. La
primera, cuando en sus trabajos iniciales está atento en torno a los hechos de la
naturaleza y por lo tanto, REALIZA OBSERVACIÓN, y la segunda, cuando con base en
ellos FORMULA ALGUNA HIPÓTESIS, que sometida a la comprobación pertinente, le
proporciona los datos o información suficiente para aceptarla o rechazarla. Ambas
etapas son importantes, pero la formulación y posterior comprobación de hipótesis, es
el punto culminante en la generación de conocimiento científico. Si algún investigador,
dependiendo del área de trabajo que esté abordando, no es capaz de formular y
comprobar alguna hipótesis, sus resultados son descriptivos y es poco probable que
contribuyan a generar conocimiento científico dentro de la etapa teórica.
2) ¿Cómo se formula?
4) ¿Cómo se contrasta?
A propósito del título, en el presente documento diremos que el término formulación
hace referencia al enunciado de un principio, hecho o fenómeno en palabras o
símbolos, sean o no matemáticos. Por analogía, diremos que la formulación de una
hipótesis es la manera o los requisitos que deberán cumplirse para proceder a
redactarla y entonces tener el enunciado conocido como hipótesis; lo cual es diferente
al concepto de hipótesis.
Este camino de la evolución nos ha permitido comprender los principios básicos del
Universo de manera concreta. Gracias a nuestros cinco sentidos, sabemos que cada
acción es una causa que provoca un efecto, y que cada efecto posee una causa. De tal
forma que el proceso de percepción involucra a su vez cuatro etapas, conocidas como:
formación de imágenes, establecimiento de sensaciones, esclarecimiento de ideas y
elaboración de conceptos.
Estas cuatro etapas en conjunto conducen al proceso de observación. De tal forma que
la observación es la utilización de los sentidos para la percepción de hechos o
fenómenos que nos rodean, o son de interés del investigador.
Desde el punto de vista de la Epistemología, existen tres herramientas básicas para
abordar a loshechos, o todo aquello que sucede en la
naturaleza: observando, midiendo y experimentando. Lo cual puede realizarse en una
acción a la vez, o las tres de manera simultánea. Esto quiere decir que un fenómeno se
está observando.
Por lo que, la observación metódica y sistemática de los hechos, permitirá a través del
tiempo, generar información (o datos) acerca de su comportamiento. De esto resulta,
que un hecho o fenómeno, podrá observarse en términos de fracciones de segundo,
como en una reacción química, o de manera perpetua, como en el movimiento de los
planetas, o de alguna variable del clima. Y la disponibilidad de datos a su vez permite
observar, medir o experimentar en torno al fenómeno estudiado, todo en un proceso
dialéctico.
Los astrólogos caldeos de los siglos VII y VI a. C., quienes al igual que sus antecesores
babilonios, creían que los cielos eran divinos, y por lo tanto identificaban a cada
planeta con una deidad (Mercurio, Venus, Marte). Pensaban que observando sus
movimientos podían predecir sus intenciones. Si la conducta de los planetas hubiera
sido irregular, haciendo algo nuevo cada vez, la tarea de los astrólogos habría sido
muy difícil y, probablemente no lo habrían iniciado. Pero dado que los movimientos
eran cíclicos y se repetían una y otra vez, la operación no parecía tan difícil y, por
tanto, tenía sentido ser extremadamente cuidadoso y preciso en las observaciones.
Kidinnu (siglo VI a. C.) calculó el movimiento del sol con una exactitud tal que sólo fue
superada en el siglo XX. Cabe recordar que caldeos, babilonios y griegos, carecían de
telescopios.
El evento que permite generar experiencia y que está ampliamente relacionado con el
de observación puede ejemplificarse con la formidable actividad de Tyge o Tico Brahe;
él nunca hizo grandes descubrimientos, salvo uno, que lo convirtió en el padre de la
Astronomía moderna, fundada en la observación. El descubrimiento estriba en que la
astronomía tenía necesidad de datos observados, precisos y continuos. Guardad todos
silencio y escuchad a Tico, quien dedicó treinta y ocho años de su vida a la observación
del movimiento de los planetas (de 1563 a 1601).
Período Sinódico
Hoy en día todos conocemos aquella teoría que nos dice que el mecanismo de la
evolución es la selección natural. Charles Darwin y Alfred Wallace son sus creadores.
Aunque el primero siempre se lleva el crédito. Darwin tuvo una gran ventaja al ser
invitado a una expedición científica a América del Sur, en el famoso velero "Beagle".
Darwin observó las grandes similitudes entre la flora y la fauna que existían entre las
comunidades bióticas de los continentes, con aquellas comunidades de islas cercanas y
dichos continentes. Para Darwin, tales similitudes y diferencias tenían un significado,
una razón de ser.
Con el apoyo de las obras de Lyell ("Principles of Geology") y de Malthus ("An Essay on
the principle of population"), Darwin postula el mecanismo que rige el proceso
evolutivo de las formas de vida de nuestro planeta: la selección natural. En ella se
plantea que es el medio ambiente quien ejerce una fuerza adaptativa sobre los
individuos, a la cual estos deben acostumbrarse, y por lo tanto evolucionar.
Tanto Darwin como Wallace utilizan a la observación como herramienta principal para
tener información.
La información anterior son ejemplos grandiosos que dejan claro que la observación de
los hechos constituye la etapa empírica para la generación de conocimiento científico, y
puede ser en instantes o durante años. La observación de los hechos de la naturaleza
aporta datos, producto de la medición de ciertos eventos, o por experimentación.
Medición
Experimentación
||
La Formulación de Hipótesis
Las siguientes son ejemplos de proposiciones simples, que cumplen con los requisitos
para ser una buena hipótesis.
Por lo que, entonces es posible redactar dicha oración, que cumple los requisitos para
ser una hipótesis, la cual se ha comprobado, y cuyo producto final ha sido un
procedimiento para la elaboración de mapas de suelos hasta el nivel parcelario.
Se tienen dos grandes vías a partir de las cuales se descubren hipótesis y por lo tanto
se formulan o redactan: 1. A partir de la razón (razonando) y 2. A partir de la
experiencia, usando la inducción.
En ambos casos es importante recalcar que el científico ha tenido una etapa previa de
observación y acumulación de datos relacionados con el problema de la naturaleza que
está investigando; por lo que la tradición científica permite desprender al menos cuatro
procedimientos que llevan a la formulación de hipótesis, [o la manera en que
escribiremos una oración declarativa].
Tal vez no se precise más que una sola cosa: la idea ha de ser completamente "loca"
en comparación con los conceptos establecidos hasta el momento en que se tiene
pensado formular tal hipótesis. Sólo a base de una idea nueva, como principio
fundamental, se crea una hipótesis.
4) La relación del ciclo de 819 días con jeroglíficos de colores y direcciones hallada por
Berlin y Kelley está en función de la identificación de estos símbolos con las estaciones
del año solar, de duración aproximada de 91 ¼ días.
Elaine Morgan publica en 1982 un libro muy sugerente y atractivo llamado "The
aquatic ape" (el mono acuático). Utilizando información de varias áreas del
conocimiento, que ella narra inicia en 1960, se plantea la siguiente cuestión, "si el
hombre desciende del mono, ¿porqué el hombre puede hablar y el mono no?"
La teoría del mono acuático afirma que la pérdida de pelo corporal y la grasa
subcutánea, son características netamente humanas, y esto sólo fue posible si el
hombre durante el proceso de evolución pasó por una etapa de adaptación en el agua,
antes de poder caminar erguido y en dos miembros.
Elaine Morgan en su libro ("The aquatic ape"), menciona lo siguiente: "Existen fósiles
de una criatura, que posiblemente sea un ancestro remoto del hombre,
llamado Ramapithecus, cuya edad data de hace 9 millones de años. Además, se tienen
fósiles con datos de mucha confianza, así como de las huellas impresas de una criatura
que caminaba apoyado en dos miembros, que datan de hace tres y medio millones de
años. Entre estos dos períodos, hasta la fecha no se han encontrado fósiles que sigan
apoyando o contradigan a la teoría de la evolución humana planteada por Darwin; de
que el hombre desciende del mono.
Sin embargo, según Elaine Morgan, al parecer este es un período de tiempo en que los
ancestros del hombre aparentemente evolucionaron siguiendo un camino diferente al
de los monos; por lo que ella se pregunta, ¿qué pasó en esta etapa del proceso
evolutivo del hombre, qué sucedió en el ambiente natural en dicho período de tiempo?
Con estas interrogantes, publica en 1985, un artículo en New Scientist (p: 62 y 63)
denominado "In the beginning was the water", en donde formula la hipótesis siguiente:
En 1803 Thomas Young demostró que la luz produce interferencias (el experimento de
la doble rendija), y sólo las ondas pueden producirlas.
Max Planck, en 1900, estudiando la radiación de los cuerpos negros, descubrió que la
energía es emitida y absorbida en "trozos", a los que llamó quantos (quanta). Él
sometió a prueba con gran éxito la hipótesis de que "la luz se emite o recibe en
pequeñas cantidades discretas".
Max Born en 1926: "La materia posee naturaleza ondulatoria que se describe como
ondas de probabilidad".
Cualquier hipótesis que tenga cierta seriedad, se plantea con la finalidad de explicar los
hechos conocidos y pronosticar los desconocidos. El filósofo Vienés, Karl Popper,
afirma, "mientras más fuerte sea la capacidad lógica de una hipótesis, más fácil será
de comprobar". Entonces, una hipótesis se constituye como la conclusión de un
razonamiento con cierta probabilidad o verosimilitud, que se obtiene al estar
analizando-sintetizando, en torno a los hechos o fenómenos, y en su formulación
inducimos-deducimos a partir de las observaciones respecto a tales hechos o
fenómenos.
En la hipótesis, es una proposición lo que viene a ser el punto de atracción de todo ese
sistema de conocimientos y hacia la cual convergen todos los restantes juicios. Los
juicios que integran la hipótesis argumentan esta proposición o se derivan de ella, es
decir, conducen a ella, se infieren o se derivan de ella.
Una hipótesis formada por proposiciones arbitrarias no deja ninguna huella importante
en la ciencia. Una hipótesis de este género no constituye una verdad objetiva. Cuando
estas proposiciones se refutan, de la hipótesis no queda nada.
La hipótesis científica verdadera incluye una proposición que puede ser refutada, pero
que posee, además una serie de juicios verídicos que en el curso del desarrollo
científico no sólo pasan de una hipótesis a otra, sino que se van haciendo más
completos. El juicio-proposición, en la hipótesis científica debe estar argumentado con
suficiente grado de probabilidad.
Si en los siglos XVII y XVIII los científicos miraban con recelo a la hipótesis, pues
consideraban que el pensamiento verídico podía y debía evitarla de alguna manera, a
fines del siglo XIX y en el XX, comprendieron en cambio, que el conocimiento se
desarrolla por medio de ella.
De tal forma que una hipótesis sirve para: 1) Explicar los hechos existentes y 2)
Pronosticar otros nuevos (desconocidos).
Cuadro 2
ETIMOLÓGICAMENTE: "Explicación supuesta que está bajo ciertos hechos, a los que sirve de
soporte".
5. Es una relación entre dos o más variables para describir o explicar un problema.
7. Es un juicio problemático mediatizado sobre el vínculo sujeto a las leyes de los fenómenos,
que se obtiene como deducción de un raciocinio de probabilidad.
10. Conjunto de datos que describen a un problema, donde se propone una reflexión y/o
explicación que plantea la solución a dicho problema.
11. Enunciado o proposición que sirve de antecedente para explicar porqué o cómo se produce
un fenómeno o conjunto de fenómenos relacionados entre sí.
Sin embargo, el concepto que se ajusta a nuestras reflexiones, porque utiliza la
información de la lógica matemática, es: "aquel enunciado o proposición que sirve
como antecedente para explicar porqué o cómo se produce un fenómeno o conjunto de
fenómenos relacionados entre sí".
Sin embargo entre los investigadores hay la tendencia a considerar a la hipótesis tan
sólo como una estructura de trabajo, carente de todo contenido objetivo. Más aún,
algunos llegan a declarar que todas las hipótesis son fantasías, simples ficciones que
sólo tienen valor práctico, pero que no reflejan de ningún modo el mundo objetivo.
Consideran que la hipótesis no es más que un procedimiento artificial de la mente, que
tan sólo sistematiza los conocimientos que se poseen. Al idealismo le conviene declarar
que el mundo exterior es una hipótesis de trabajo cómoda.
Varios investigadores mayistas encontraron años atrás que cinco inscripciones ( una en
Palenque, tres en Yaxchilán, una en Quiriguá y una en Copán) de carácter calendárico,
llevan intercaladas, a manera de inserciones consideradas "parentéticas", seis glifos,
también calendáricos, que señalan fechas anteriores a las expresadas en las
respectivas series iniciales. Los intervalos en días entre las seis fechas son: 11466,
15561, 3276, 16380, y 1433250. En 1943 Eric Thompson (5, 6) demostró que el factor
común más elevado de estas cifras es 819, número que descompone, como él señaló ,
a los productos (9)(91), (7)(117), (3)(273) y (7)(9)(13). Thompson destacó la gran
importancia mística para los maya de los números, 7, 9 y 13. Por ello consideró que
manejaban un ciclo de 819 días, que habrá tenido un carácter mágico o ritual, sin
descartar alguna manifestación astrológica o astronómica. Pensando en una posible
relación con observaciones del planeta Mercurio, o de la Luna, encargó una
investigación astronómica que no logró relacionar las fechas con los ciclos o fases de
dichos cuerpos (6). Posteriormente, en 1961, Berlin y Kelley (1) establecieron
relaciones entre las fechas "parentéticas" y glifos direccionales y de colores.
Entre los números 200 y 999 sólo hay tres nones, no divisibles entre cinco, que poseen
ocho o más divisores ( sin considerar la unidad y el número mismo). Estos son el 693,
el 819, y el 891, cuyos divisores se dan en el cuadro 1.
Cuadro 1
21x33 21x29
El 819, el que nos interesa, tiene diez divisores nones y es el único de los tres
divisibles entre 13. Sus divisores mayores descomponen a los menores, por ejemplo:
273= 3x91, 117=3x39, 63=3x21=7x9, etc. De los divisores mayores (39 para arriba),
sólo el 63 no divide a entero entre 13.
Obsérvese la necesaria aparición de la mayoría de los divisores del 819 (13, 39, 91,
117, 273), lo mismo que otros números importantes de la aritmética y calendárica
maya, como el 52 y el 260. Nótese también la presencia del 26 que es, a la vez, 2x13,
527/2, Y 260/10.
¿Qué posición ocupa el 819 en el sistema numérico tridecimal? El número final del
quinto "tridecenar", ubicado en el 65avo lugar de la numeración corrida, es el 845, en
tanto que el 819 queda dos sitios atrás, en el lugar 63. ¿Porqué, entonces el ciclo
elegido no fue de 845 días en lugar de 819? La primera razón aducible es que el 819
es el número de "cita" o de "encuentro" del mayor número de múltiplos del 13. Una
segunda razón podría ser de carácter astronómico: son 91 los días entre solsticios y
equinoccios o, dicho en otra forma, cada estación del año dura 91 ¼ días. A este
respecto, observar la presencia del 364 (91x4) en la posición 28 del sistema
tridecimal. El número de 819 días abarca nueve estaciones, o sea, dos años solares
más una estación del subsiguiente. Pero pudo haber habido una tercera razón para
elegir ciclos de 819 días y no de otro número. Divídase el 819 entre 260, el número de
días del llamado tzolkin o "calendario ritual" de los maya:
819/260=3.15
El número 3.15 difiere del π moderno, aproximado a 3.1416..., en sólo 0.0084, lo que
le da la suficiente exactitud para usos prácticos mensurábiles, ingenieriles,
arquitectónicos e inclusive astronómicos.
Ahora bien, sacar 3.15 como cociente de la división de dos números "sacros" de los
maya parece demasiado feliz y acertado para ser simple coincidencia.
¿Verdaderamente conocían, entonces el número π con buena aproximación? Hay
antecedentes entre otros pueblos de la antigüedad.
Tal parece, como veremos más adelante, que los antiguos hebreos lo estimaban igual
a tres; por el papiro Rhind (1700 a. C.) se sabe que los egipcios lo calculaban en 3
3/81 (3.16); y Arquímides lo ubicó entre 3 10/71 y 3 1/7, o sea entre 3.1408 y 3.1428
(ver 3).
Entonces, circunferencia/diámetro = 30/10 = 3.
Por otro lado, la división de las circunferencias en pequeñas unidades iguales, tiene
antiquísimos antecedentes entre los babilonios, que fueron los primeros en dividirlas
en 360 partes iguales, cada una de ellas divisibles en 60 más pequeñas, sistema en
uso hasta la actualidad (2). Es evidente que esta operación babilónica no iba
encaminada a conocer el número π, ya que el diámetro de un círculo con circunferencia
de 360 mide 114.59..., incomodísima cifra para cálculos prácticos.
2. La cifra de los 260 días del tzolkin nada tenía que ver en forma directa con los ciclos
lunares, planetarias o estelares individuales, sino que era la base fundamental de un
sistema puramente aritmético, en el que felizmente se generan diversas cifras
compatibles con observaciones astronómicas cardinales para los maya.
3. Este sistema permitía el manejo intrínseco del 3.15, excelente aproximación del π,
mediante la formulación: "a cada circunferencia igual a 819, corresponde siempre un
diámetro de 260".
4. La relación del ciclo de 819 días con jeroglíficos de colores y direcciones hallada por
Berlin y Kelley, está en función de la identificación de estos símbolos con las estaciones
del año solar, de duración aproximada de 91 ¼ días, por ejemplo ( por decir algo ),
"blanco" y "norte" con la estación "invierno", etc.
a probabilidad es una medida de la certidumbre de que ocurra un evento. Su valor es
un número entre 0 y 1, donde un evento imposible corresponde a cero y uno seguro
corresponde a uno.
Una forma empírica de estimar la probabilidad consiste en obtener la frecuencia con la que
sucede un determinado acontecimiento mediante la repetición de experimentos aleatorios,
bajo condiciones suficientemente estables. En algunos experimentos de los que se conocen
todos los resultados posibles, la probabilidad de estos sucesos pueden ser calculadas de
manera teórica, especialmente cuando todos son igualmente probables.
La teoría de la probabilidad es la rama de la matemática que estudia los experimentos o
fenómenos aleatorios. Se usa extensamente en áreas como la estadística, la física,
las ciencias sociales, la Investigación médica, las finanzas, la economía y la filosofía para
conocer la viabilidad de sucesos y la mecánica subyacente de sistemas complejos.
Índice
Experimento: Una operación que puede producir algunos resultados bien definidos pero que
se puede predecir cuál de ellos se obtendrá, se llama un experimento aleatorio
Ejemplo: Cuando se lanza una moneda, se sabe que solo puede aparecer cara o cruz. Sin
embargo no se puede predecir al momento de lanzar la moneda en cuál lado caerá.
Ejemplo: Cuando se lanza un dado se sabe que en la cara superior puede aparecer
cualquiera de los números 1,2,3,4,5, o 6 pero no se puede predecir cuál aparecerá.
Espacio muestral: Todos los resultados posibles de un experimento en su conjunto,
forman el Espacio de la muestra.
Ejemplo: Cuando lanzamos un dado se puede obtener cualquier resultado del 1 al 6. Todos
los números posibles que pueden aparecer en la cara superior forman el Espacio
Muestral(denotado por S). El espacio muestral de una tirada de dados es S={1,2,3,4,5,6}
Resultado: Cualquier elemento posible del espacio muestral S de un experimento
aleatorio se llama Resultado.
Ejemplo: Cuando lanzamos un dado, podemos obtener 3 o cuando lanzamos una moneda,
podemos obtener cara.
Suceso: Cualquier subconjunto del espacio muestral S se llama un Evento (denotado por E).
Cuando se produce un resultado que pertenece al subconjunto E, se dice que ha ocurrido un
suceso. Mientras que, cuando un resultado que no pertenece al subconjunto E tiene lugar, el
Evento no ha ocurrido.
Ejemplo: Considérese el experimento de lanzar un dado. Aquí el espacio
muestral S={1,2,3,4,5,6}. Sea E el evento de "que aparezca un número menor de 4". Así, el
suceso E={1,2,3}. Si aparece el número 1, se dice que el suceso E ha ocurrido. Del mismo
modo, si los resultados son 2 ó 3, se puede afirmar que se ha producido el Suceso E, ya que
estos resultados pertenecen al subconjunto E'
Ensayo: Por ensayo, se entiende la realización de un experimento aleatorio.
Ejemplo: (i) Lanzar una moneda justa, (ii) lanzar un dado imparcial1
Interpretaciones[editar]
Cuando se trata de experimentos que son aleatorios y bien definidos en un entorno puramente
teórico (como lanzar una moneda justa), la probabilidad puede describirse numéricamente por
el número de resultados deseados, dividido por el número total de todos los resultados. Por
ejemplo, si se lanza una moneda al aire dos veces, se obtendrán resultados de "cara-cara",
"cara-cruz", "cruz-cara" y "cruz-cruz". La probabilidad de obtener un resultado de "cara-cara"
es 1 de cada 4 resultados, o, en términos numéricos, 1/4, 0,25 o 25%. Sin embargo, en lo que
respecta a la aplicación práctica, existen dos grandes categorías de interpretaciones de la
probabilidad que compiten entre sí, y cuyos partidarios mantienen puntos de vista diferentes
sobre la naturaleza fundamental de la probabilidad:
Etimología[editar]
Artículo principal: Función de verosimilitud
La palabra probabilidad deriva del latín probabilitas, que también puede significar "probidad",
una medida de la autoridad de un testigo en un caso legal en Europa, y a menudo
correlacionada con la nobleza del testigo. En cierto sentido, esto difiere mucho del significado
moderno de probabilidad, que en cambio es una medida del peso de la evidencia empírica, y
se llega a ella a partir del razonamiento inductivo y la inferencia estadística.7
Historia[editar]
La definición de probabilidad se produjo debido al deseo del ser humano por conocer con
certeza los eventos que sucederán en el futuro, por eso a través de la historia se han
desarrollado diferentes enfoques para tener un concepto de la probabilidad y determinar sus
valores.
El diccionario de la Real Academia Española (R.A.E) define «azar» como una casualidad, un
caso fortuito, y afirma que la expresión «al azar» significa «sin orden».8 La idea de
probabilidad está íntimamente ligada a la idea de azar y nos ayuda a comprender nuestras
posibilidades de ganar un juego de azar o analizar las encuestas. Pierre-Simon
Laplace afirmó: "Es notable que una ciencia que comenzó con consideraciones sobre juegos
de azar haya llegado a ser el objeto más importante del conocimiento humano". Comprender y
estudiar el azar es indispensable, porque la probabilidad es un soporte necesario para tomar
decisiones en cualquier ámbito.9
Según Amanda Dure, "Antes de la mitad del siglo XVII, el término 'probable' (en latín probable)
significaba aprobable, y se aplicaba en ese sentido, unívocamente, a la opinión y a la acción.
Una acción u opinión probable era una que las personas sensatas emprenderían o
mantendrían, en las circunstancias."10
Aparte de algunas consideraciones elementales hechas por Girolamo Cardano en el siglo XVI,
la doctrina de la probabilidad data de la correspondencia de Pierre de Fermat y Blaise
Pascal (1654). Christiaan Huygens (1657) le dio el tratamiento científico conocido más
temprano al concepto, seguido por la Kybeia de Juan Caramuel (1670). Varios de los citados
autores -Fermat, Pascal y Caramuel- mencionan en sus respectivas correspondencias un Ars
Commutationes de Sebastián de Rocafull (1649), hoy perdido. El fundamental Ars
Conjectandi (póstumo, 1713) de Jakob Bernoulli y Doctrine of Chances (1718) de Abraham de
Moivre trataron el tema como una rama de las matemáticas. Véase El surgimiento de la
probabilidad (The Emergence of Probability) de Ian Hacking para una historia de los inicios del
desarrollo del propio concepto de probabilidad matemática.
La teoría de errores puede trazarse atrás en el tiempo hasta Opera Miscellanea (póstumo,
1722) de Roger Cotes, pero una memoria preparada por Thomas Simpson en 1755 (impresa
en 1756) aplicó por primera vez la teoría para la discusión de errores de observación. La
reimpresión (1757) de esta memoria expone los axiomas de que los errores positivos y
negativos son igualmente probables, y que hay ciertos límites asignables dentro de los cuales
se supone que caen todos los errores; se discuten los errores continuos y se da una curva de
la probabilidad.
Pierre-Simon Laplace (1774) hizo el primer intento para deducir una regla para la combinación
de observaciones a partir de los principios de la teoría de probabilidad. Representó la ley de la
probabilidad de error con una curva , siendo cualquier error e su probabilidad, y expuso tres
propiedades de esta curva:
1. es simétrica al eje ;
2. el eje es una asíntota, siendo la probabilidad del error igual a 0;
3. la superficie cerrada es 1, haciendo cierta la existencia de un error.
Dedujo una fórmula para la media de tres observaciones. También obtuvo (1781) una fórmula
para la ley de facilidad de error (un término debido a Lagrange, 1774), pero su fórmula llevaba
a ecuaciones inmanejables. Daniel Bernoulli (1778) introdujo el principio del máximo producto
de las probabilidades de un sistema de errores concurrentes.
El método de mínimos cuadrados se debe a Adrien-Marie Legendre (1805), que lo introdujo en
su Nouvelles méthodes pour la détermination des orbites des comètes (Nuevos métodos para
la determinación de las órbitas de los cometas). Ignorando la contribución de Legendre, un
escritor irlandés estadounidense, Robert Adrain, editor de "The Analyst" (1808), dedujo por
primera vez la ley de facilidad de error,
siendo y constantes que dependen de la precisión de la observación. Expuso dos
demostraciones, siendo la segunda esencialmente la misma de John
Herschel (1850). Gauss expuso la primera demostración que parece que se conoció en
Europa (la tercera después de la de Adrain) en 1809. Demostraciones adicionales se
expusieron por Laplace (1810, 1812), Gauss (1823), James Ivory (1825, 1826), Hagen
(1837), Friedrich Bessel (1838), W. F. Donkin (1844, 1856) y Morgan Crofton (1870). Otros
personajes que contribuyeron fueron Ellis (1844), De Morgan (1864), Glaisher (1872)
y Giovanni Schiaparelli (1875). La fórmula de Peters (1856) para , el error probable de una
única observación, es bien conocida.
En el siglo XIX, los autores de la teoría general incluían a Laplace, Sylvestre
Lacroix (1816), Littrow (1833), Adolphe Quetelet (1853), Richard Dedekind (1860), Helmert
(1872), Hermann Laurent (1873), Liagre, Didion, y Karl Pearson. Augustus De
Morgan y George Boole mejoraron la exposición de la teoría.
En 1930 Andréi Kolmogorov desarrolló la base axiomática de la probabilidad utilizando
teoría de la medida.
En la parte geométrica (véase geometría integral) los colaboradores de The Educational
Times fueron influyentes (Miller, Crofton, McColl, Wolstenholme, Watson y Artemas
Martin).
Véase también: Estadística
Teoría[editar]
Artículo principal: Teoría de la probabilidad
Regla de la adición[editar]
La regla de la adición o regla de la suma establece que la probabilidad de ocurrencia
de cualquier evento en particular es igual a la suma de las probabilidades individuales,
si es que los eventos son mutuamente excluyentes, es decir, que dos no pueden
ocurrir al mismo tiempo.
Por un lado, si , es decir que son mutuamente excluyentes, entonces
Por otro lado, si , es decir que no son mutuamente excluyentes, entonces
Regla de la multiplicación[editar]
La regla de la multiplicación establece que la probabilidad de ocurrencia de dos o más
eventos estadísticamente independientes es igual al producto de sus probabilidades
individuales.
, si A y B son independientes.
, si A y B son dependientes.
siendo la probabilidad de que ocurra B habiéndose dado o verificado el evento A.
Un lote contiene "100" objetos de los cuales "20" son defectuosos. Los objetos son
seleccionados uno después del otro para ver si ellos son defectuosos. Suponga que
dos objetos son seleccionados sin reemplazo (significa que el objeto que se
selecciona al azar se deja por fuera del lote). ¿Cuál es la probabilidad de que los dos
objetos seleccionados sean defectuosos?
Solución:
Sea los eventos
primer objeto defectuoso, segundo objeto defectuoso
entonces dos objetos seleccionados serán defectuosos, cuando ocurre el evento que
es la intersección entre los eventos y . De la información dada se tiene que:
;
así que la probabilidad de que los dos objetos seleccionados sean defectuosos es
Ahora suponga que selecciona un tercer objeto, entonces la probabilidad de que los
tres objetos seleccionados sean defectuosos es
Regla de Laplace[editar]
La Regla de Laplace establece que:
Distribución binomial[editar]
Artículo principal: Distribución binomial
Aplicaciones[editar]
Dos aplicaciones principales de la teoría de la probabilidad en el día a día son en
el análisis de riesgo y en el comercio de los mercados de materias primas. Los
gobiernos normalmente aplican métodos probabilísticos en regulación
ambiental donde se les llama "análisis de vías de dispersión o separación por
medio de ecuaciones", y a menudo miden el bienestar usando métodos que son
estocásticos por naturaleza, y escogen qué proyectos emprender basándose en
análisis estadísticos de su probable efecto en la población como un conjunto. No
es correcto decir que la estadística está incluida en el propio modelado, ya que
típicamente los análisis de riesgo son para una única vez y por lo tanto requieren
más modelos de probabilidad fundamentales, por ej. "la probabilidad de otro 11-
S". Una ley de números pequeños tiende a aplicarse a todas aquellas elecciones
y percepciones del efecto de estas elecciones, lo que hace de las medidas
probabilísticas un tema político. Un buen ejemplo es el efecto de la probabilidad
percibida de cualquier conflicto generalizado sobre los precios del petróleo
en Oriente Medio - que producen un efecto dominó en la economía en conjunto.
Un cálculo por un mercado de materias primas en que la guerra es más probable
en contra de menos probable probablemente envía los precios hacia arriba o
hacia abajo e indica a otros comerciantes esa opinión. Por consiguiente, la
probabilidad no se calcula independientemente y tampoco es necesariamente
muy racional. La teoría de las finanzas conductuales surgió para describir el
efecto de este pensamiento de grupo en el precio, en la política, y en la paz y en
los conflictos.
Se puede decir razonablemente que el descubrimiento de métodos rigurosos para
calcular y combinar los cálculos de probabilidad ha tenido un profundo efecto en
la sociedad moderna. Por consiguiente, puede ser de alguna importancia para la
mayoría de los ciudadanos entender cómo se calculan los pronósticos y la
probabilidad, y cómo contribuyen a la reputación y a las decisiones,
especialmente en una democracia.
Otra aplicación significativa de la teoría de la probabilidad en el día a día es en
la fiabilidad. Muchos bienes de consumo, como los automóviles y la electrónica de
consumo, utilizan la teoría de la fiabilidad en el diseño del producto para reducir la
probabilidad de avería. La probabilidad de avería también está estrechamente
relacionada con la garantía del producto.
Se puede decir que no existe una cosa llamada probabilidad. También se puede
decir que la probabilidad es la medida de nuestro grado de incertidumbre, o esto
es, el grado de nuestra ignorancia dada una situación. Por consiguiente, puede
haber una probabilidad de 1 entre 52 de que la primera carta en un baraja sea
la J de diamantes. Sin embargo, si uno mira la primera carta y la reemplaza,
entonces la probabilidad es o bien 100% o 0%, y la elección correcta puede ser
hecha con precisión por el que ve la carta. La física moderna proporciona
ejemplos importantes de situaciones deterministas donde solo la descripción
probabilística es factible debido a información incompleta y la complejidad de un
sistema así como ejemplos de fenómenos realmente aleatorios.
En un universo determinista, basado en los conceptos newtonianos, no hay
probabilidad si se conocen todas las condiciones. En el caso de una ruleta, si la
fuerza de la mano y el periodo de esta fuerza es conocido, entonces el número
donde la bola parará será seguro. Naturalmente, esto también supone el
conocimiento de la inercia y la fricción de la ruleta, el peso, lisura y redondez de la
bola, las variaciones en la velocidad de la mano durante el movimiento y así
sucesivamente. Una descripción probabilística puede entonces ser más práctica
que la mecánica newtoniana para analizar el modelo de las salidas de
lanzamientos repetidos de la ruleta. Los físicos se encuentran con la misma
situación en la teoría cinética de los gases, donde el sistema determinístico en
principio, es tan complejo (con el número de moléculas típicamente del orden de
magnitud de la constante de Avogadro ) que solo la descripción estadística de sus
propiedades es viable.
La mecánica cuántica, debido al principio de indeterminación de Heisenberg, solo
puede ser descrita actualmente a través de distribuciones de probabilidad, lo que
le da una gran importancia a las descripciones probabilísticas. Algunos científicos
hablan de la expulsión del paraíso.[cita requerida] Otros no se conforman con la pérdida
del determinismo. Albert Einstein comentó estupendamente en una carta a Max
Born: Jedenfalls bin ich überzeugt, daß der Alte nicht würfelt. (Estoy convencido
de que Dios no tira el dado). No obstante hoy en día no existe un medio mejor
para describir la física cuántica si no es a través de la teoría de la probabilidad.
Mucha gente hoy en día confunde el hecho de que la mecánica cuántica se
describe a través de distribuciones de probabilidad con la suposición de que es
por ello un proceso aleatorio, cuando la mecánica cuántica es probabilística no
por el hecho de que siga procesos aleatorios sino por el hecho de no poder
determinar con precisión sus parámetros fundamentales, lo que imposibilita la
creación de un sistema de ecuaciones determinista.
Investigación biomédica[editar]
Véase también: Muestreo en estadística
Véase también[editar]
Teoría de la decisión
Teoría de juegos
Teoría de la información
Teoría de la medida
Variable aleatoria
Estadística
Proceso estocástico
Equiprobabilidad
Frecuencia estadística
Interpretaciones de la probabilidad
Así pues, como en el caso de la moneda en la teoría de la probabilidad, se utiliza para saber que, si se lanza
la misma moneda cien veces con el mismo impulso, sobre la misma superficie y sin ningún cambio, ésta caerá
cincuenta veces sobre una cara y cincuenta sobre la otra. En este caso, la probabilidad no nos puede hacer
saber de qué lado va a caer la moneda, pero sí nos indica que existe un cincuenta por ciento de probabilidad
de que caiga de un lado o del otro. Si se trata de un dado, por ejemplo, cada número sólo tiene una sexta
parte de probabilidad de caer; por lo que resulta más difícil que un mismo lado se repita varias veces.
Si retomamos el ejemplo de las monedas y los dados y lo aplicamos a una inversión, entenderemos mejor el
manejo de la probabilidad financiera. En el mundo de las inversiones, existen muchos expertos que se
dedican a realizar mediciones sobre la frecuencia con que ocurren determinados fenómenos. Los
inversionistas utilizan estos estudios para analizar mejor sus posibles negocios. Así pues, si existe un estudio
que nos revela que la posibilidad que tiene una determinada acción de subir es de treinta y cinco por ciento,
esto nos da a entender que tiene un sesenta y cinco por ciento de probabilidad de descender, lo cual nos
habla de mayor riesgo al momento de invertir.
Por lo general, cuando una inversión tiene más riesgo, sus ganancias potenciales son mayores. Los estudios
de probabilidad nos ayudan a determinar precisamente el riesgo que existe.
En el mercado de valores ocurre un fenómeno similar al de las apuestas en los deportes, las carreras de
autos o los caballos. Cuando se apuesta dinero al favorito para ganar, la ganancia es menor que cuando se
apuesta al peor calificado de la lista. De la misma forma, el riesgo es más grande cuando se pone el dinero en
el perdedor, puesto que tiene menos probabilidades de ganar.
Conclusiones
Los estudios de probabilidad nos permiten predecir, en cierta medida, los comportamientos de las inversiones,
o al menos, las posibles ganancias o pérdidas en cualquier caso. Esto resulta muy útil para decidir cuándo
invertir o no y de qué manera hacerlo.
Es importante recordar que las leyes de probabilidad están vinculadas de manera directa a los riesgos de
pérdida, por lo que, las inversiones con pocas probabilidades de éxito, suelen ser las que paguen mejor si
llegan a ser exitosas. Sin embargo, no hay que perder de vista que el riesgo es un factor determinante para
elegir una inversión. No es recomendable poner en peligro el patrimonio con la esperanza de ganarle a la
probabilidad o de contradecir los pronósticos. Un riesgo de inversión adecuado dependerá de la situación
individual de cada persona y sus necesidades específicas. Por ello, es crucial el asesorarse de manera
apropiada y diversificar las inversiones.
Referencias:
Aguer, Mario y Manuel Ahijado (editores). Diccionario de economía general y empresa. Madrid: Pirámide,
2003. Morchón Morcillo, Francisco y Rafael Isidro Aparicio. Diccionario de términos financieros y de
inversión. Tercera edición. Mc Graw Hill, Madrid, 2006
A modo de ejemplo, imaginemos que hay una piedra en el suelo, y tres personas
distintas mirándola y tocándola. Cualquiera de ellas puede preguntarle a las
demás si realmente hay una piedra allí en el suelo, y la respuesta será afirmativa,
dado que todos pueden percibirla al mismo tiempo. Su existencia es, pues,
una realidad objetiva, que no varía según el observador.
Ahora supongamos que una de las tres personas le dice a las demás que se trata
de una piedra muy hermosa. Al instante, la segunda persona le lleva la contraria y
le dice que no, que la piedra es horrible. La tercera, al ser consultada, se encoge
de hombros y dice que le parece una piedra promedio, ni hermosa ni horrible.
¿Quién de los tres tiene razón en este caso? Cualquiera, ya que se trata de
una percepción subjetiva de la piedra, que tiene más que ver con la sensibilidad
de sus observadores, que con la existencia real de la piedra.
Lo objetivo
Esto quiere decir que los saberes obtenidos mediante la ciencia son saberes
comprobables, replicables, demostrables y verificables, que en cualquier parte del
mundo pueden someterse a prueba y obtener los mismos resultados. Por eso
el conocimiento científico es objetivo porque no depende de quiénes hayan
realizado los experimentos o quiénes hayan publicado sus hallazgos.
Por otro lado, si esa misma marca de champú contiene una sustancia altamente
contaminante que lo convierte en un riesgo medioambiental, también lo será sin
importar en qué país se venda el champú, o qué piensen o sientan sus
consumidores al respecto.
Fuente: https://concepto.de/objetivo-y-subjetivo/#ixzz7Y2T3S3Tf
La hipótesis y la teoría
La hipótesis y el experimento
Experimento
Ir a la navegaciónIr a la búsqueda
1Visión general
2Historia
3Tipos de experimento
o 3.1Experimentos controlados
o 3.2Experimentos naturales
o 3.3Experimentos de campo
4Contraste con estudio observacional
5Ética
6Método experimental en derecho
7Véase también
8Referencias
9Otras lecturas
10Enlaces externos
Visión general[editar]
En el método científico, un experimento es un procedimiento empírico que
arbitra modelos o hipótesis en competencia. 2 3 Los investigadores también usan
los experimentos para evaluar teorías existentes o nuevas hipótesis para
apoyarlas o refutarlas. 4
Un experimento, generalmente evalúa una hipótesis, que es una expectativa sobre
cómo funciona un proceso o fenómeno en particular. Sin embargo, un experimento
también puede tener como objetivo el responder a una pregunta de "qué si", sin
una expectativa específica sobre lo que revela el experimento, o para confirmar
resultados previos. Si en el experimento se llevan a cabo los cuidados necesarios,
los resultados generalmente respaldan o refutan la hipótesis. Según
algunas filosofías de la ciencia, un experimento nunca puede "probar" una
hipótesis, solo puede añadir apoyo. Por otro lado, un experimento que proporciona
un contraejemplo puede refutar una teoría o hipótesis, pero una teoría siempre
puede salvarse mediante modificaciones ad hoc apropiadas a expensas de la
simplicidad. Un experimento también debe controlar los posibles factores de
confusión, cualquier factor que estropee la precisión o la repetición del
experimento o la capacidad de interpretar los resultados. La confusión se elimina
comúnmente mediante controles científicos y/o, en experimentos aleatorios,
mediante una asignación aleatoria .
En ingeniería y ciencias físicas, los experimentos son un componente primario del
método científico. Se utilizan para probar teorías e hipótesis sobre cómo funcionan
los procesos físicos bajo condiciones particulares (por ejemplo, si un proceso de
ingeniería en forma particular puede producir un compuesto químico deseado).
Típicamente, los experimentos en estos campos se enfocan en la replicación de
procedimientos idénticos con la esperanza de producir resultados idénticos en
cada réplica. La asignación aleatoria es poco común.
En medicina y las ciencias sociales, la prevalencia de la investigación
experimental varía ampliamente entre las disciplinas. Sin embargo, cuando se
usan, los experimentos suelen seguir la forma del ensayo clínico, donde las
unidades experimentales (generalmente seres humanos individuales) se asignan
aleatoriamente a un tratamiento o control de condición, donde se evalúan uno o
más resultados. 5 En contraste con las normas de las ciencias físicas, el enfoque
generalmente está en el efecto promedio del tratamiento (la diferencia en los
resultados entre los grupos de tratamiento y control) u otra prueba
estadística producida por el experimento. 6 Por lo general, un solo estudio no
implica replicaciones del experimento, pero se pueden agregar estudios separados
mediante una revisión sistemática y un metanálisis .
Existen varias diferencias en la práctica experimental en cada una de las ramas de
la ciencia . Por ejemplo, la investigación agrícola con frecuencia utiliza
experimentos aleatorios (por ejemplo, para evaluar la efectividad comparativa de
diferentes fertilizantes), mientras que la economía experimental confrecuencia
implica pruebas experimentales de comportamientos humanos teorizados sin
depender de la asignación aleatoria de individuos a condiciones de tratamiento y
control.