REPUBLICA BOLIVARIANA DE VENEZUELA 
MINISTERIO DEL PODER POPULAR PARA
LA EDUCACION UNIVERSITARIA, CIENCIA Y TECNOLOGIA
INSTITUTO UNIVERSITARIO DE
TECNOLOGIA DEL ESTADO BOLIVAR
PROGRAMA NACIONAL DE FORMACION EN
INFORMATICA
PROYECTO SOCIOTECNOLOGICO I
TRAYECTO I SEMESTRE 1
AVANCE DEL SEMESTRE I
GRUPO
N° 5 SECCION: 3T TURNO: TARDE
INVESTIGADORES:
C.I.
Michel Novellino 24.542.308
Luis Torres 25.659.843
Lorenzo Pérez 25.914.245
Wendy Bohorquez 26.139.052
CIUDAD
BOLIVAR, DICIEMBRE DEL 2014
NOMBRRE
DEL PROYECTO SOCIO-TECNOLOGICO I
Alfabetización tecnológica en el sistema
operativo Canaima a alumnos, alumnas y docente del tercer grado sección “U” de
la U.E.N “Dr Columbo Silva Bolívar”
beneficiarios del proyecto Canaima educativo.
TUTORES DEL PROYECTO:
TUTOR TECNICO: Richard Martínez
TUTOR INSTITUCIONAL: Yamilet Carvajal
TUTORA ACADEMICA: MSc Carmen Diaz
NOMBRE COMPLETO DE LA INSTITUCION EDUCATIVA:
“U.E.N “Dr. Columbo Silva Bolívar”
UBICACIÓN
GEOGRAFICA:
DIRECCION:
PARROQUIA: Vista Hermosa. MUNICIPIO: Heres
LOCALIDAD: Ciudad Bolívar ESTADO: Bolívar
GOOGLE MAPS:


PUNTOS
DE REFERENCIAS DE LA INSTITUCION
ABORDADA:
1.- Centro de Diagnóstico Guayana
2.- Av.
San Vicente de Paul
3.- Asilo
San Vicente de Paul
CAPITULO
I
EL
PROBLEMA
PROBLEMAS
EXISTENTES EN LA INSTITUCION “U.E.N Dr Columbo Silva Bolívar” RELACIONADOS CON HARDWARE
Y SOFTWARE
|
HARDWARE
|
SOFTWARE
|
|
Ningún tipo de
servicio técnico en los ordenadores en general.
|
Poco conocimiento y
destreza en el uso y manejo del software empleado en la administración.
|
|
Deterioro parcial
en los equipos de computación existentes en de la institución.
|
Falta de Técnico
asesor en la materia de computación.
|
EL PRINCIPAL PROBLEMA
EN LA AREA DE SABER SOFTWARE QUE
AFECTA A LA INSTITUCION:
Falta de técnico asesor en la materia de computación.
EL PRINCIPAL PROBLEMA
EN LA AREA DE SABERES HARDWARE QUE AFECTA A LA INSTITUCION:
Ningún tipo de servicio técnico en los ordenadores en
general.
PROBLEMAS
EXISTENTES EN LA INSTITUCION “U.E.N Dr
Columbo Silva Bolívar” RELACIONADOS CON INFORMATICA Y TELEMATICA
|
INFORMATICA
|
TELEMATICA
|
|
Deficiencia de
conocimiento en el uso y manejo de un ordenador.
|
Deficiencia en la
conexión de internet.
|
|
Poca participación
de los docentes y personal
administrativo a cursos, talleres e
infocentros.
|
Falta de
instalación de router para red inalámbrica Wifi.
|
EL PRINCIPAL PROBLEMA
INFORMATICO QUE AFECTA A LA INSTITUCION:
Deficiencia de conocimiento en el uso y
manejo de un ordenador.
EL PRINCIPAL PROBLEMA
TELEMATICO QUE AFECTA A LA
INSTITUCION:
Deficiencia en la conexión de internet.
PROBLEMAS
EXISTENTES EN LA INSTITUCION “U.E.N Dr
Columbo Silva Bolívar” RELACIONADOS CON EL PROYECTO CANAIMA EDUCATIVO
|
No se ha iniciado el proyecto Canaima en el
aula.
|
Los Equipos de Computación Canaima almacenan contenido
no educativo como, (juegos, música, videos, entre otros.)
|
Perdidas
de componentes en las canaimas.
|
|
Inexistencia de la
red eléctrica en el aula de clases.
|
No poseen red de conexión a internet.
|
La docente de aula, no tiene conocimiento
sobre el proyecto Canaima educativo.
|
EL PRINCIPAL PROBLEMA
QUE AFECTA AL PROYECTO CANAIMA EDUCATIVO EN LA INSTITUCION:
No se ha iniciado el proyecto Canaima en el aula.
POSIBLES SOLUCIONES A ESTE PROBLEMA:
1.- educar a los niños, niñas y al docente del
aula, con respecto al manejo y uso correcto de estos instrumentos de estudio.
2.-Eliminarles toda la información que no se para
sus estudios.
|
N° DE BENEFICIARIOS
|
RECURSOS NECESARIOS
|
FECHA PROBABLE DE EJECUCION DEL PROYECTO
|
|
24.
|
HUMANOS:
Alumnos y docente.
TECNICOS:
Canaimitas.
|
Primera semana de mayo.
|
|
GRADO
|
SECCION
|
TURNO
|
|
3er.
|
“U”.
|
Mañana.
|
|
N° DE CANAIMITAS
|
OPERATIVAS
|
NO OPERATIVAS
|
|
24
|
21
|
3
|
CRONOGRAMA DE ACTIVIDADES REALIZADAS EN EL SEMESTRE I
|
ACTIVIDADES
|
FECHAS
|
RESPONSABLES
|
OBSERVACIONES
|
|
Asignación de grupo, institución y tutor técnico.
|
17/09/14
|
MSc Carmen Diaz.
|
Fuimos asignado al grupo Nº5 conformado por 4 personas.
Tutor técnico: Richard Martinez.
|
|
Entrega de propuesta a la institución y asignación de
tutor institucional.
|
18/09/14
|
Grupo Nº5
|
Tutor Institucional
asignado: Yamilet Carvajal.
|
|
Realización del abordaje a la institución.
|
25/09/14
|
Grupo Nº5
|
|
|
Carta de aceptación de los tutores.
|
02/10/14
|
Grupo Nº5
|
|
|
Asignación de actividad: Diagnostico participativo,
visitas a medios de comunicación.
|
08/10/14
|
MSc Carmen Diaz.
|
|
|
Colocadas fechas de exposición de diagnostico
participativo.
|
08/10/14
|
MSc Carmen Diaz.
|
|
|
Realización de diagnóstico participativo.
|
16/10/14
|
Grupo Nº5
|
Poca
participación por parte de los representantes.
|
|
Exposición de diagnóstico participativo.
|
22/10/14
|
Grupo Nº5
|
|
|
Realización de la validación del problema.
|
16/11/14
|
Grupo Nº5
|
|
CAPITULO
II
MARCO
TEORICO
BASES TEORICAS DEL PROYECTO I
SOFTWARE
La
palabra software se refiere a las instrucciones que se incorporan a un sistema
informático para que este lleve a cabo una determinada función. El software se
asegura de que el programa o sistema cumpla por completo con sus objetivos,
opere con eficiencia, este adecuadamente documentado y suficientemente fácil de
operar. Está constituido por los programas y los datos que definen para el
hardware los algoritmos de resolución de problemas. Es el programa
que da las órdenes, quien indica que debe hacer cada máquina con sus elementos,
cuando y como. Un ordenador sin software sería simplemente un conjunto de
chips, cables, periféricos e interruptores totalmente inerte y sin función
alguna. Es el software quien ordena todo ese material, lo reconoce, le asigna
una función según sus características, y permite que funcione todo en su
conjunto.
En
grandes programas, como por ejemplo los sistemas operativos, existen equipos de
cientos y miles de personas que trabajan en ellos durante largos periodos de
tiempo, sobre todo debido a su complejidad. Y de hecho empresas como Apple,
Microsoft, Google… son básicamente empresas dedicadas al software y su
desarrollo, lo cual nos permite hacernos una pequeña idea del valor del
software.
El
software controla al hardware, aunque evidentemente sin este último el software
tampoco puede funcionar. De hecho cada software suele ser específico para
determinados equipos o máquinas.
Tipos de software:
Software del sistema: es el
conjunto de programas indispensables para que la máquina funcione; se denominan
también programas del sistema. Procesa
tareas tan esenciales, aunque a menudo invisibles, como el mantenimiento de los
archivos del disco y la administración de la pantalla. Estos programas son
básicamente: sistema operativo: DOS y WINDOWS, editores de texto: EDIT,
PADWORD, compiladores / interpretes (lenguajes de programación) y programas de
utilitarios.
El sistema operativo: dirige
las operaciones globales de la computadora, instruye a la computadora para
ejecutar otros programas y controla el almacenamiento y recuperación de
archivos (programas y datos) de cintas y discos. Es el software que controla la
ejecución de todas las aplicaciones y de los programas de software de sistema.
Son una serie de programas que administran los recursos del computador. Este
indica como interactuar con el usuario y como usar los dispositivos: discos
duros, teclado y monitor. En cuanto a su función se puede decir que es el
núcleo de toda la actividad del software, este monitorea y controla todas las
entradas y salidas de sistemas de computación. Asimismo, responde a las
indicaciones provenientes del usuario, o de un conjunto previamente definido de
comandos. Además, controla la ejecución de varios programas, simultáneamente.
Igualmente, actúa como traductor, entre las operaciones y la respuesta de la
maquina; informa al usuario de cualquier error que presente la máquina.
También, posee un programa llamado "manipulador de discos" opera con
un circuito electrónico llamado controlador de discos, este ayuda a traducir
las ordenes de los programas para encontrar la pista adecuada.
Incluso, este está
generalmente diseñado por el fabricante y por ello no es posible definir uno
estándar; aunque hay un conjunto de funciones básicas o componentes que todo
sistema debe considerar, y son: controlar las operaciones de entrada y salida,
cargar, inicializar y supervisar la ejecución de los trabajos, detectar errores,
controlar las interrupciones causadas por los errores, asignar memoria a cada
tarea, manejar el multiproceso, la multiprogramación, memoria virtual, etc.
Este se clasifica en: Usuario único: es de tipo simple, ya que se dedica a un
solo programa a la vez. Usuario múltiple: es de tipo general, ya que puede
satisfacer las exigencias de usuarios múltiples con los recursos de programas y
máquina de qué se dispone. Puede ser de varios tipos:
Multiprogramación: es un
caso en la que múltiples programas pueden almacenarse en la memoria y
ejecutarse siguiendo un nivel de prioridades.
Tiempo compartido: permite
que cada programa actúe durante cierto tiempo (apropiado para programas
interactivos).
Lotes: es una colección de
programas, escritos en COBOL o FOLTRAN, se incorpora al ordenador y se procesa.
Tiempo Real: en este la
respuesta al ordenador debe ser lo bastan rápida como para proporcionar una
decisión en tiempo real.
Lenguajes de programación:
utilizado para escribir programas. Mediante los programas se indica a la
computadora que tarea debe realizar y cómo efectuarla, pero para ello es
preciso introducir estas órdenes en un lenguaje que el sistema pueda entender.
En principio, el ordenador sólo entiende las instrucciones en código máquina,
es decir, el específico de la computadora. Sin embargo, a partir de éstos se
elaboran los llamados lenguajes de alto y bajo nivel.
Software de aplicaciones:
Programa informático diseñado para facilitar al usuario la realización de un
determinado tipo de trabajo. Posee ciertas características que le diferencia de
un sistema operativo (que hace funcionar al ordenador), de una utilidad (que
realiza tareas de mantenimiento o de uso general) y de un lenguaje (con el cual
se crean los programas informáticos). Suele resultar una solución informática
para la automatización de ciertas tareas complicadas como puede ser la
contabilidad o la gestión de un almacén. Ciertas aplicaciones desarrolladas 'a
medida' suelen ofrecer una gran potencia ya que están exclusivamente diseñadas
para resolver un problema específico. Otros, llamados paquetes integrados de
software, ofrecen menos potencia pero a cambio incluyen varias aplicaciones,
como un programa procesador de textos, de hoja de cálculo y de base de datos.
Este describe programas que son para el usuario, así descrito para poder
realizar casi cualquier tarea. Este es aquel que puede ser utilizado en
cualquier instalación informática, independiente del empleo que se vaya a hacer
de ella. Existen muchos programas que se dividen en varias categorías:
aplicaciones de negocios, aplicaciones de utilería, aplicaciones personales,
aplicaciones de entretenimiento. A continuación se hablará de las aplicaciones
de negocios:
Procesadores de palabras:
Estos permiten hacer cambios y correcciones con facilidad, permiten revisar la
ortografía e incluso la gramática de un documento, cambiar la apariencia de la
letra, agregar gráficos, fusionar listas de direcciones con cartas con envío de
correo en grupo, general tablas de contenido, etc. También se puede usar para
crear cualquier tipo de documento (carta de negocio, documentos legales).
Ejemplos de procesadores de texto: Word, AmiPro, WordPerfect.
Hojas de cálculo: son
procesadores de números tridimensionales. Se pueden crear hojas de trabajo
donde puedes colocar textos, números o formulas en las celdas, obteniendo una
hoja contable computarizada. También puede crear gráficas y tablas para mostrar
gráficamente relaciones entre números. Ejemplos de Hojas de Cálculo: Excel,
Lotus 123, Quatro.
Paquetes de Presentación o
Graficadores: Software que permite al usuario diseñar presentaciones para
desplegarlas a través de la misma computadora o imprimir diapositivas y
acetatos. Contienen opciones avanzadas para integrar efectos en cada cambio de
diapositiva. Ejemplos: Presentación, Power Point. Otro tipo de software para
gráfico son las aplicaciones para presentaciones de gráficos con este se crean
gráficas y tabla a color y de calidad profesional basados en datos numéricos de
otro programa (hoja de cálculo).
Manejador de base de datos:
Se utiliza para organizar los datos guardados en la computadora y permite
buscar datos específicos de diferentes maneras. También archivan los datos en
orden alfabético esto permite obtener la información que se desean más
fácilmente.
Software de red: Es el que
permite comunicarse a grupos de usuarios.
Shareware: Software
distribuido de forma gratuita para ser probado. Si el usuario decide quedarse
con el programa y seguir usándolo, debe pagar al desarrollador. Normalmente, el
shareware es desarrollado por compañías relativamente pequeñas o inclusive por
programadores individuales, y generalmente es barato.
Freeware: Programas
gratuitos que los desarrolladores ponen a disposición de otros usuarios sin
ningún costo. En algunos casos el desarrollador no reclama derechos de autor y
el programa se convierte en software del dominio público. En otros casos, el
software tiene derechos de autor pero el desarrollador ha permitido a otra
gente usarlos y copiarlo gratuitamente.
Aplicación Vertical: Las
aplicaciones verticales son programas que realizan todas las fases de una
función crítica del negocio. Estos programas, que muchas veces corren en una
combinación de Mainframes, minis y computadoras personales, se denominan
algunas veces aplicaciones de misión crítica. Generalmente son desarrollados a
la medida por cada compañía que los tiene y son usados por muchos individuos
dentro de una Organización.
HARDWARE:
El hardware es la parte física de la informática, el
material que se emplea para que un ordenador o cualquier aparato electrónico
puedan funcionar y ejecutar las tareas para las que han sido diseñados. Es pues
el soporte vital de un ordenador.
Así, un ordenador también recibe información a través de
diferentes componentes: teclado, módems, pantallas táctiles, entre otros, y esa
información la procesará en su disco duro para luego darle las órdenes
oportunas para hacer diversas tareas.
Hardware Libre, Se entiende por hardware libre aquel cuyo
código fuente, especificación de procesos de fabricación y diseño conceptual
están disponibles de forma tal que ofrezcan: libertad de uso, de estudio y
modificación, de distribución, y de redistribución de las mejoras.
La clasificación evolutiva del hardware del computador
electrónico está dividida en generaciones, donde cada una supone un cambio
tecnológico muy notable. El origen de las primeras es sencillo de establecer,
ya que en ellas el hardware fue sufriendo cambios radicales. Los componentes
esenciales que constituyen la electrónica del computador fueron totalmente
reemplazados en las primeras tres generaciones, originando cambios que
resultaron trascendentales. En las últimas décadas es más difícil distinguir
las nuevas generaciones, ya que los cambios han sido graduales y existe cierta
continuidad en las tecnologías usadas. En principio, se pueden distinguir:
1ª Generación (1945-1956): electrónica implementada con tubos de vacío.
Fueron las primeras máquinas que desplazaron los componentes electromecánicos
(relés).
2ª Generación (1957-1963): electrónica desarrollada con transistores. La
lógica discreta era muy parecida a la anterior, pero la implementación resultó
mucho más pequeña, reduciendo, entre otros factores, el tamaño de un computador
en notable escala.
3ª Generación (1964-hoy): electrónica basada en circuitos integrados. Esta
tecnología permitió integrar cientos de transistores y otros componentes
electrónicos en un único circuito integrado impreso en una pastilla de silicio.
Las computadoras redujeron así considerablemente su costo, consumo y tamaño,
incrementándose su capacidad, velocidad y fiabilidad, hasta producir máquinas
como las que existen en la actualidad.
La aparición del microprocesador marca un hito de relevancia, y para muchos
autores constituye el inicio de la cuarta generación. A diferencia de los
cambios tecnológicos anteriores, su invención no supuso la desaparición radical
de los computadores que no lo utilizaban. Así, aunque el microprocesador 4004
fue lanzado al mercado en 1971, todavía a comienzo de los 80's había computadores,
como el PDP-11/44,8 con lógica carente de microprocesador que continuaban
exitosamente en el mercado; es decir, en este caso el desplazamiento ha sido
muy gradual. Otro hito tecnológico usado con frecuencia para definir el inicio
de la cuarta generación es la aparición de los circuitos integrados VLSI (Very
Large Scale Integration), a principios de los ochenta. Al igual que el
microprocesador, no supuso el cambio inmediato y la rápida desaparición de los
computadores basados en circuitos integrados en más bajas escalas de
integración. Muchos equipos implementados con tecnologías VLSI y MSI (Medium
Scale Integration) aún coexistían exitosamente hasta bien entrados los 90.
INFORMATICA:
“Es la ciencia que estudia el tratamiento automático y
racional de la información.” Se dice que el tratamiento es automático por ser
máquinas las que realizan los trabajos de captura, proceso y presentación de la
información, y se habla de racional por estar todo el proceso definido a través
de programas que siguen el razonamiento humano.
El término proviene del francés “informatique” (mezcla de
las palabras “information” y “automatique”), se trata de la rama ingenieril
relativa al tratamiento de información automatizado mediante máquinas. Este
campo de estudio, investigación y trabajo comprende el uso de la computación
para resolver problemas mediante programas, diseño, fundamentos teóricos
científicos y diversas técnicas.
La informática, entonces, ayuda al ser humano en la tarea
de potenciar las capacidades de comunicación, pensamiento y memoria. Es
aplicada en varias áreas de la actividad social, como por ejemplo en
aplicaciones multimedia, arte, ciencia, diseño computarizado, juegos digitales,
investigación, transporte público, comunicaciones, robots en las fábricas, control
y monitores de procesos industriales, consulta y almacenamiento de información,
o gestión de negocios. Si bien se trata de una disciplina nacida con un enfoque
hacia/para la industria, a fines del Siglo XX se popularizó y se expandió
también hacia el uso hogareño, reemplazando o potenciando la utilidad de otros
electrodomésticos (equipos de música, televisores, etc.), servicios (telefonía,
etc.) o medios masivos de comunicación (diarios, cine, revistas, etc.).
En 1957 Karl Steinbuch añadió la palabra alemana
Informatik en la publicación de un documento denominado Informatik:
Automatische Informationsverarbeitung (Informática: procesamiento automático de
información). En ruso, Alexander Ivanovich Mikhailov fue el primero en utilizar
informatik con el significado de «estudio, organización, y la diseminación de
la información científica», que sigue siendo su significado en dicha lengua. En
inglés, la palabra Informatics fue acuñada independiente y casi simultáneamente
por Walter F. Bauer, en 1962, cuando Bauer cofundó la empresa denominada
Informatics General, Inc. Dicha empresa guardó el nombre y persiguió a las
universidades que lo utilizaron, forzándolas a utilizar la alternativa computer
science. La Association for Computing Machinery, la mayor organización de
informáticos del mundo, se dirigió a Informatics General Inc. para poder
utilizar la palabra informatics en lugar de computer machinery, pero la empresa
se negó. Informatics General Inc. cesó sus actividades en 1985, pero para esa
época el nombre de computer science estaba plenamente arraigado. Actualmente
los angloparlantes utilizan el término computer science, traducido como
«Ciencias de la computación», para designar tanto el estudio científico como el
aplicado.
Las computadoras utilizan información almacenada para
construir simulaciones que van desde un simple análisis hasta ilustraciones
realistas y animadas de nuevos productos. Esto permite predecir el efecto de
las múltiples decisiones de negocios.
Se considera que la primera máquina programable y
completamente automática de la historia fue el computador Z3, diseñado por el
científico alemán Konrad Zuse en 1941. Esta máquina pesaba 1.000 kilogramos y
se demoraba tres segundos para realizar una multiplicación o una división. Las
operaciones de suma o resta, en cambio, le insumían 0,7 segundos.
TELEMATICA:
Se refiere a la
transmisión de datos a distancia por medio de ordenadores.
La telemática permite establecer un
flujo de comunicación universal, rápido, accesible (tanto económica como técnicamente),
basado en la transmisión o el intercambio de ideas con carácter público o
privado, en el que cualquiera, con los adecuados medios técnicos, puede ser
transmisor de mensajes.
Surge de la evolución
y fusión de la telecomunicación y de la informática. Esta unión ha traído el
desarrollo de tecnologías que permiten realizar una llamada telefónica en
un lugar abandonado en la selva amazónica, enviar un vídeo en 3D por Internet,
o hasta recibir imágenes de una sonda que orbita alrededor de un planeta
distante.
Cubre el campo
científico y tecnológico, englobando el estudio, diseño, gestión y aplicación
de las redes y servicios de comunicaciones, para el transporte, almacenamiento
y procesado de cualquier tipo de información (datos, voz, vídeo, entre otros).
Unas de las actividades que se realizan
en la telemática:
-Elaboración de proyectos de
infraestructuras comunes de telecomunicación en edificios (ICT).
-Supervisar y brindar asistencia
técnica a desarrolladores, suministradores de equipos y sistemas de
telecomunicación.
-Planificar y gestionar tecnologías
para entornos de área local (LAN), metropolitana (MAN) y área amplia (WAN).
-Asesorar el desarrollo de normas y
propone criterios de homologación de equipos, sistemas y certificaciones.
-Especificar, diseñar e implementar
protocolos con calidad de servicio para soportar medios de comunicación
masivos.
-Diseño de software de sistemas de
tiempo real para aplicaciones de entretenimiento.
-Diseño y desarrollo de servicios en
las areas de redes y telecomunicaciones.
-Diseño e implementación sistemas de
seguridad para el almacenamiento, la transmisión y accesos a redes y sistemas.
-Diseño de aplicaciones distribuidas
orientadas a la administración y el comercio electrónico.
El término "Telemática" se acuñó en Francia
(télématique). En 1976, en un informe encargado por el presidente francés y
elaborado por Simon Nora y Alain Minc Electrik (conocido como informe Nora-Minc
y distribuido por el título: "Informatización de la Sociedad"), en el
que se daba una visión increíblemente precisa de la evolución tecnológica
futura. Ahora bien, el concepto, como se indica en este informe, también puede
ligarse a un origen estadounidense: Compunication, o como se utiliza más
habitualmente Computer and Communications. No obstante, no es casualidad la
diferencia entre los términos: responden a contextos diferentes, en efecto, hay
matices claves a distinguir. Para aclarar esto, conviene situarse en el
contexto de la época: por una parte Francia,que ponía claro énfasis en las
telecomunicaciones como motor de su transformación social (1976), mientras que
Estados Unidos estaba viviendo una gran revolución de la informática. Así,
Compunication apunta a un modelo con mayor relevancia de los sistemas
informáticos; telemática (télématique) por su parte, refiere a un mayor énfasis
en la telecomunicación. Esta diferencia de origen se ha perdido, ya que esta
disciplina científica y tecnológica ha convergido por completo a nivel mundial,
para formar un único cuerpo de conocimiento bien establecido.
La
telemática ha encontrado en enorme desarrollo en los últimos veinte años,
haciendo posible una comunicación y conexión más eficiente entre las diversas
partes del globo. Puede decirse que ha implicado un enorme cambio social que ha
traído enorme beneficios. En efecto, hoy en día, esta facilidad que existe para
mantener comunicaciones ha redundado en un aumento significativo de la
productividad, hecho que sin lugar a dudas tenderá a intensificarse
paulatinamente en el futuro. La telemática, desde esta perspectiva, lejos de
detener su avance, continuará brindando nuevas soluciones que impliquen mejoras
continuas en el bienestar de la población, haciendo que la misma logre mejores
comunicaciones día a día.
SOFTWARE LIBRE:
El software libre (en inglés free software, esta denominación también se
confunde a veces con gratis por la ambigüedad del término en el idioma inglés)
es la denominación del software que respeta la libertad de los usuarios sobre
su producto adquirido y, por tanto, una vez obtenido puede ser usado, copiado,
estudiado, cambiado y redistribuido libremente. Según la Free Software
Foundation, el software libre se refiere a la libertad de los usuarios para
ejecutar, copiar, distribuir, estudiar, modificar el software y distribuirlo
modificado.
El software libre suele estar disponible gratuitamente, o al precio de
costo de la distribución a través de otros medios; sin embargo no es
obligatorio que sea así, por lo tanto no hay que asociar software libre a
"software gratuito" (denominado usualmente freeware), ya que,
conservando su carácter de libre, puede ser distribuido comercialmente
("software comercial"). Análogamente, el "software gratis"
o "gratuito" incluye en ocasiones el código fuente; no obstante, este
tipo de software no es libre en el mismo sentido que el software libre, a menos
que se garanticen los derechos de modificación y redistribución de dichas
versiones modificadas del programa.
Tampoco debe confundirse software libre con "software de dominio público".
Éste último es aquel software que no requiere de licencia, pues sus derechos de
explotación son para toda la humanidad, porque pertenece a todos por igual.
Cualquiera puede hacer uso de él, siempre con fines legales y consignando su
autoría original. Este software sería aquel cuyo autor lo dona a la humanidad o
cuyos derechos de autor han expirado, tras un plazo contado desde la muerte de
este, habitualmente 70 años. Si un autor condiciona su uso bajo una licencia,
por muy débil que sea, ya no es del dominio público.
Entre los años 1960 y 1970,
el software no era considerado un producto sino un añadido que los vendedores
de las grandes computadoras de la época (las mainframes) aportaban a sus
clientes para que éstos pudieran usarlos. En dicha cultura, era común que los
programadores y desarrolladores de software compartieran libremente sus
programas unos con otros. Este comportamiento era particularmente habitual en
algunos de los mayores grupos de usuarios de la época, como DECUS (grupo de
usuarios de computadoras DEC). A finales de la década de 1970, las compañías
iniciaron el hábito de imponer restricciones a los usuarios, con el uso de
acuerdos de licencia. En 1971, cuando la informática todavía no había sufrido
su gran boom, las personas que hacían uso de ella, en ámbitos universitarios y
empresariales, creaban y compartían el software sin ningún tipo de
restricciones. Con la llegada de los años 1980 la situación empezó a cambiar.
Las computadoras más modernas comenzaban a utilizar sistemas operativos
privativos, forzando a los usuarios a aceptar condiciones restrictivas que
impedían realizar modificaciones a dicho software. En caso de que algún usuario
o programador encontrase algún error en la aplicación, lo único que podía hacer
era darlo a conocer a la empresa desarrolladora para que ésta lo solucionara.
Aunque el programador estuviese capacitado para solucionar el problema y lo
desease hacer sin pedir nada a cambio, el contrato le impedía que modificase el
software. El mismo Richard Matthew Stallman cuenta que por aquellos años, en el
laboratorio donde trabajaba, habían recibido una impresora donada por una
empresa externa. El dispositivo, que era utilizado en red por todos los
trabajadores, parecía no funcionar a la perfección, dado que cada cierto tiempo
el papel se atascaba. Como agravante, no se generaba ningún aviso que se
enviase por red e informase a los usuarios de la situación.
La pérdida de tiempo era
constante, ya que en ocasiones, los trabajadores enviaban por red sus trabajos
a imprimir y al ir a buscarlos se encontraban la impresora atascada y una cola
enorme de trabajos pendientes. Richard Stallman decidió arreglar el problema, e
implementar el envío de un aviso por red cuando la impresora se bloqueara. Para
ello necesitaba tener acceso al código fuente de los controladores de la
impresora. Pidió a la empresa propietaria de la impresora lo que necesitaba,
comentando, sin pedir nada a cambio, qué era lo que pretendía realizar. La
empresa se negó a entregarle el código fuente. En ese preciso instante,
Stallman se vio en una encrucijada: debía elegir entre aceptar el nuevo
software propietario firmando acuerdos de no revelación y acabar desarrollando
más software propietario con licencias restrictivas, que a su vez deberían ser
más adelante aceptadas por sus propios colegas.
Con este antecedente, en
1984, Richard Stallman comenzó a trabajar en el proyecto GNU, y un año más
tarde fundó la Free Software Foundation (FSF). Stallman introdujo la definición
de software libre y el concepto de "copyleft", que desarrolló para
otorgar libertad a los usuarios y para restringir las posibilidades de
apropiación del software.
Software
Libre, es un tipo particular de software que le permite al usuario el ejercicio
de cuatro libertades básicas:
·
Ejecutarlo con cualquier propósito
·
Estudiar cómo funciona y adaptarlo a sus
necesidades
·
Distribuir copias
·
Mejorarlo, y liberar esas mejoras al público.
Con la única restricción del
copyleft (o sea, cualquiera que redistribuya el software, con o sin cambios,
debe dar las mismas libertades que antes), y con el requisito de permitir el
acceso al código fuente (imprescindible para ejercer las libertades 1 y 3)
Las libertades básicas del
Software Libre
Libertad Cero: "usar el
programa con cualquier propósito". Es decir, el ejercicio de esta libertad
implica que lo podemos utilizar con cualquier fin, ya sea educativo, cultural,
comercial, político, social, etc. Esta libertad deriva de que hay ciertas
licencias que restringen el uso del software a un determinado propósito, o que
prohíben su uso para determinadas actividades.
Libertad Uno: "Estudiar
cómo funciona el programa, y adaptarlo a sus necesidades". Significa que
podemos estudiar su funcionamiento (al tener acceso al código fuente) lo que
nos va a permitir, entre otras cosas: descubrir funciones ocultas, averiguar
cómo realiza determinada tarea, descubrir que otras posibilidades tiene, que es
lo que le falta para hacer algo, etc. El adaptar el programa a mis necesidades
implica que puedo suprimirle partes que no me interesan, agregarle partes que
considero importantes, copiarle una parte que realiza una tarea y adicionarla a
otro programa, entre otros.
Libertad Dos:
"Distribuir copias". Quiere decir que soy libre de redistribuir el
programa, ya sea gratis o con algún costo, ya sea por email o en CD, ya sea a
una persona o a varias, un vecino o a una persona que vive en otro país, etc.
Libertad Tres: "Mejorar
el programa, y liberar las mejoras al público". Tengo la libertad de hacer
mejor el programa, o sea que puedo: hacer menores los requerimientos de
hardware para funcionar, que tenga mayores prestaciones, que ocupe menos
espacio, que tenga menos errores, etc. El poder liberar las mejoras al público
quiere decir que si yo le realizo una mejora que permita un requerimiento menor
de hardware, o que haga que ocupe menos espacio, soy libre de poder
redistribuir ese programa mejorado, o simplemente proponer la mejora en un
lugar público (una página de noticias, una lista de correo, un sitio Web o un
canal de Chat).
ALFABETIZACION TECNOLOGICA EN
SOFTWARE LIBRE:
Con esto se trata de dar conocimiento a los individuos,
con respecto a software libre, debido a que pocas personas tienen saberes de
cómo manejar un computador con este software. el Proyecto
Canaima Educativo, es un
aporte universal con
sabor venezolano, que promueve la socialización del conocimiento,
respetando las libertades y necesidades de
nuestro país, al
tiempo que aprovecha la experiencia y creatividad de los docentes
venezolanos. Es que las comunidades se apropien de herramientas tecnológicas,
conocimientos y saberes relacionados con el software libre, se busca el
acercamiento de las personas al computador, adquiriendo un conocimiento básico
de sus funcionalidades.
Hoy día hay muchas
hay muchas personas y grupos que brindan apoyo, con respecto a la
alfabetización en software libre y con el funcionamiento de las canaimas.
El Plan de Formación Tecnológica está respaldada por la
Misión Ciencia, que tiene como propósito utilizar las tecnologías de
información y su conocimiento; proviniendo del uso del computador, para darles
a las personas esa oportunidad de poder acceder a través de éstas a todos los
programas de participación y desarrollo que viene impulsando el Gobierno
Bolivariano.
Para solidificar este proceso el Gobierno ha desarrollado
una serie de contenidos y sistemas educativos como: los Infocentros, los
Centros Bolivarianos de Informática y Telemática (Cbit), los puntos de acceso,
las Aldeas Universitarias y ahora de la mano con las Bibliotecas Virtuales.
La Alfabetización Tecnológica va dirigida a las
comunidades, a las personas provenientes de las misiones y sin limitación de
edad, dictados como cursos que se dividen en cuatro fases.
Primera Fase: habla sobre estas nuevas tecnologías, para que sirven y su
marco jurídico. Esta última es importante porque es una especie de marco
teórico-histórico y conceptual de lo que son. Se puede decir que la tecnología
es un instrumento que se convierte en un arma que puede ser utilizada para tu
superación pero que también puede hacerte mucho daño, si no la sabes usar.
Segunda Fase: para qué sirve el computador, de qué está formado,
constituido. Ahí la persona puede relacionarse con el computador y ver las
partes del mismo, que es un CD Room, el ratón, la pantalla, el manejo de los
botones, etc., es lo básico.
Tercera Fase: se habla sobre las aplicaciones y sobre el software, es
decir, lo que es el procesador de palabras, fundamentalmente para poder
escribir algo en la computadora, un poco lo que es el sistema operativo y el
escritorio de manera muy general
Cuarta Fase: El Internet, los correos electrónicos, los nombres de las
páginas web, para qué sirve y cómo navegar en ellas.
PLAN NACIONAL DE ALFABETIZACION
TECNOLOGICA:
·
EL Plan
Nacional de Alfabetización Tecnológica (Pnat),
nace en el marco de la Misión Ciencia y tiene como objetivo central,
formar en el uso de las Tecnologías de Comunicación e Información a los
sectores populares y comunidades más recónditas del país.
·
Es uno
de los esfuerzos del Gobierno Bolivariano para darle al Pueblo el poder de
utilizar las tecnologías y el conocimiento. Integra las herramientas y
plataformas que se han desarrollado como contenidos educativos, Infocentros,
centros Bolivarianos de informática y telemática, aldeas universitarias,
bibliotecas virtuales, entre otros.
El Plan Nacional de Alfabetización Tecnológica (PNAT), ha llegado a todos
los estados de Venezuela a través de los infocentros y de sus instituciones
aliadas, como: la Unellez, Unefa, UBV, UCV, Simón Rodríguez, Rómulo Gallegos,
alcaldías y gobernaciones Bolivarianas, además de la Misión Sucre, Fundación
Nacional para el Desarrollo de la Ciencia y la Tecnología, Fundabit, organismos
militares, Centros de Gestión Parroquial y Centros Bolivarianos de Informática
y Telemática, quienes día a día han puesto a disposición salas de computación
para beneficio del colectivo.
Ventajas de la alfabetización tecnológica:
Desarrollo de habilidades y conocimientos tecnológicos.
• Utilización y conocimiento de software.
• Habilidad para comunicarse e intercambiar información utilizando variedad
de medios y formatos.
• Utilización y conocimiento de Hardware.
• Compilar, organizar, analizar y sintetizar información.
• Capacitación del recurso humano.
• Adquirir habilidades para el aprendizaje autodirigido.
• Progreso Social.
• Habilidad para resolver problemas.
• Evita el rezago tecnológico.
En nuestros tiempos, la tecnología avanza de una manera dramática, los
cambios que se pueden observar son muy grandes, la tecnología ha llegado a
ocupar un lugar importantísimo en el desarrollo de nuestras vidas tanto
profesional como laboral, es por ello la importancia de una adecuada
alfabetización tecnológica, ya que esta llega a colocar al usuario en un
situación en la que se le enseña y se contextualiza con respecto a la
tecnología, otorgándole la oportunidad de desarrollar habilidades y
conocimientos tecnológicos, conocimiento de software y hardware, evitando el
rezago tecnológico etc.
SOPORTE TECNICO A USUARIAS Y
USUARIOS:
El soporte técnico a usuarios es brindar enseñanza sobre los tipos de
tecnologías que se están utilizando los usuarios ya que de esta manera puedan
saber cómo utilizarlos cómo usarla de manera correcta.
El soporte técnico a usuario es esencial ya que ayuda a conectar al usuario
con el computador u otros tipos de tecnología que ellos estén utilizando, de
esta manera puedan realizar sus tareas con mayor eficacia.
Ejemplos claro del soporte técnico a usuarios:
§
Validar
que los recursos de hardware y software instalado estén con los requerimientos
de los usuarios.
§
Orientar
a los usuarios a prepararse para utilizar herramientas nuevas.
§
Verificar
que los usuarios puedan trabajar correctamente con los equipos tecnológicos.
Se basa orientar al usuario en la elección de los equipos
de computación y herramientas de software que requiera para agilizar la
realización de sus tareas, Prestar apoyo y asistencia técnica al usuario en el
manejo y uso eficiente de los equipos de computación y de las herramientas de
software, así como en la detección de fallas.
Conocer y orientar en el uso de las aplicaciones, que a
través de las herramientas de productividad y tele-informáticas, contribuyan
con el uso en la realización de sus labores informáticas.
Consiste también en asesorar técnicamente al usuario en
el manejo de un computador, se basa en tratar de hacerle más fácil el trabajo
al usuario de entender el funcionamiento de un computador.
SOPORTE TECNICO A EQUIPOS:
Es el rango de servicios que proporcionan asistencia
presencial de un individuo para solucionar problemas con el hardware de un
computador, o algún otro dispositivo electrónico.
Prestar asistencia técnica en la instalación y mantenimiento preventivo
de los equipos de computación y realizar, cuando sea posible, reparaciones de
hardware. Cuando se preste el servicio de soporte técnico se debe velar por
preservar la información de los usuarios y en caso que se requiera modificar
debe ser con previa autorización por parte del usuario.
Dos tipos de mantenimiento serian:
§ Mantenimiento lógico y de desempeño; se realiza una
revisión lógica de dispositivos, pruebas para ver el desempeño del PC, chequeo
de virus e instalaciones eléctricas, entre otros.
§ mantenimiento físico: consiste en la limpieza y revisión
de todos los componentes tanto externos como internos del PC.
La finalidad es mantener funcionando adecuadamente.
SISTEMA OPERATIVO CANAIMA:
Canaima es una distribución GNU/Linux venezolana basada
en Debian surgida como consecuencia del decreto presidencial 3.390 sobre el uso
de tecnologías libres en la Administración Pública Nacional (APN) venezolana,
promulgado por el Presidente Hugo Chávez Frías. El 14 de marzo de 2011 en la
Gaceta Oficial Nº 39.633 se establece como sistema operativo para las
estaciones de trabajo de la APN.
El uso de Canaima GNU/Linux es frecuente en las escuelas
públicas venezolanas, por ser utilizada en el Proyecto «Canaima Educativo», el
cual que busca dotar a más de 250 mil alumnos niños en edad escolar con
computadores portátiles Magallanes y su caso de uso ha sido presentado en
congresos internacionales sobre el uso de estándares abiertos, y a pesar de su
reciente desarrollo ha sido utilizada en el Festival Latinoamericano de
Instalación de Software Libre (FLISOL) donde ha sido instalada en los equipos
de muchos usuarios.
Aunque se hace referencia a esta distribución como
Software Libre, en realidad no es considerada como tal por la Free Software
Foundation, debido a que incluye algunos componentes privativos, como los
controladores necesarios para que funcionen ciertas piezas de hardware en
algunos equipos informáticos. Los creadores de Canaima optaron por incluir
estos controladores privativos en la distribución, con el fin de hacerla
compatible con la mayoría de los computadores en uso por el Estado Venezolano y
facilitar la migración hacia esta distribución GNU/Linux.
Software incluido
Escritorio de Canaima GNU/Linux 2.0
Como otras distribuciones, Canaima GNU/Linux posee aplicaciones diversas
para llevar a cabo tareas de ofimática, entretenimiento, desarrollo y
configuración de todo el sistema. Su interfaz predeterminada es GNOME. Existen
otras versiones extraoficiales mantenidas por la comunidad, con diferentes escritorios,
como XFCE.
·
Ofimática:
§
suite
de oficina LibreOffice, con los siguiente módulos:
§
Gestión
de proyectos: Planner
§
Editor
de HTML.
Siguiendo la tendencia impuesta por otras organizaciones que realizan
distribuciones GNU/Linux, desde la versión 3, LibreOffice sustituyó a
OpenOffice.org y a partir de la versión 3.1 deja de ser incorporado el gestor
de base de datos de esta suite de oficina. Escritorio de Canaima personalizado
GNU/Linux 3.0
·
Internet:
§
Navegador
web: Cunaguaro, basado en Iceweasel, presente desde la versión 3.0 de Canaima y
que sustituye al navegador Curiara.
§
Cliente
de correo electrónico: Guácharo.
§
Cliente
de mensajería instantánea: Pidgin.
§
Cliente
Twitter: Turpial.
·
Gráficos:
§
Libreoffice
Draw.
§
GNU
Paint.
§
Editor
de diagramas Dia.
§
Gimp
§
Inkscape
§ Visor
de cámara Web Cheese.
§
Shotwell
Photo Manager.
§
Software
de escaneo de imágenes Xsane.
·
Programación:
§
Quanta
Plus.
§
Eclipse.
§
Adjunta:
Entorno de desarrollo integrado para programar en los lenguajes de programación
C, C++, Java, Python y Vala, en sistemas GNU/Linux y BSDen los lenguajes C,
C++, Java y Python, en sistemas GNU/Linux.
PROYECTO CANAIMA EDUCATIVO:
Tiene el objetivo de potenciar la enseñanza y aprendizaje de niñas y niños,
mediante el uso de computadoras portátiles, al tiempo que permite a docentes
crear, mejorar y modificar contenidos que promuevan el pensamiento humanista en
todas sus áreas. El Centro Nacional de Tecnologías de Información (CNTI)
desarrolló una versión de la Metadistribución Canaima orientada a las
especificaciones pedagógicas y técnicas de este proyecto. El sistema operativo
de cada una de estas minicomputadoras, contiene un catálogo de contenidos
educativos digitales con una interfaz gráfica sencilla, amigable y accesible
que facilita la navegabilidad de las aplicaciones didácticas realizadas por el
Ministerio del Poder Popular para la Educación. Cumpliendo con las políticas de
Estado, este proyecto desarrollado totalmente en Software Libre, impulsa la
independencia tecnológica mediante el ejercicio pleno de la soberanía.
Beneficios del Proyecto Canaima Educativo:
-Sistema Operativo 100% venezolano, que por ser Software Libre permite su
estudio, mejoramiento y distribución.
-Impulsa el desarrollo de potencialidades en Tecnologías de Información
Libres para el apoyo a los procesos educativos en pro de la independencia
tecnológica.
-Promueve y fortalece aprendizajes integrales.
-Consolida innumerables áreas de conocimiento.
-Fomenta actitudes críticas, creativas e investigativas en docentes.
-Promueve la formación colaborativa de docentes.
-Garantiza el derecho humano de niñas y niños a la comunicación y
apropiación de las Tecnologías de Información.
Es un proyecto iniciado en el año 2009 por el Ministerio
del Poder Popular para la Educación del gobierno de la República Bolivariana de
Venezuela que consiste en proveer gratuitamente a los estudiantes de educación
básica de un computador, conocido popularmente como Canaimita, que tiene como
sistema operativo a Canaima GNU/Linux y una serie de contenidos educativos
creados por el Ministerio de Educación.
En el año 2011 se entregaron 1.314.091 computadoras. En
septiembre de 2012 se entregó la Canaimita número 2 millones. Hasta el 21 de
marzo del año 2013 se han entregado 2.452.337 Canaimitas a los niños que cursan
Educación Primaria. Más recientemente, el Gobierno de Venezuela inició la
entrega 2,5 millones de computadoras a estudiantes de las instituciones
públicas de bachillerato. En abril de 2014 ya se han entregado 3.300.000
computadoras Canaima a niños y jóvenes de educación básica y media.
CANAIMITAS:
Surge inicialmente como respuesta a las necesidades ofimáticas y de otros
procesos productivos de los usuarios finales de la Administración Pública
Nacional (APN), y para dar cumplimiento al decreto presidencial Nro. 3.390
sobre el uso de TIL en la APN.
Son un proyecto socio-tecnológico abierto, centrado en el desarrollo de
herramientas y modelos productivos basados en las Tecnologías de Información
Libres (TIL) de software y sistemas operativos cuyo objetivo es generar
capacidades nacionales, desarrollo endógeno, apropiación y promoción del libre
conocimiento, sin perder su motivo original: la construcción de una Nación
venezolana tecnológicamente preparada.
Características Principales:
-Totalmente desarrollada en Software Libre.
-No está limitada al uso en la APN, sino que puede ser usado por cualquier
persona.
-Se encuentra equipado con herramientas ofimáticas como OpenOffice.org,
(procesador de palabras, hojas de cálculo, presentaciones), diseño gráfico,
planificación de proyectos y bases de datos.
-Permite la interacción con Internet, a través de su navegador web, gestor
de correo electrónico y aplicaciones para realizar llamadas telefónicas por la
red.
-Es estable y segura, basada en la versión estable de GNU/Linux, la cual
pasa por una serie de procesos y pruebas rigurosas de calidad.
VINCULACION
DEL PROYECTO CON EL PLAN DE LA PATRIA 2013 – 2019
|
OBJETIVOS
HISTORICOS
|
OBJETIVOS
NACIONALES
|
OBJETIVOS
ESTRATEGICOS
|
|
I.- Defender, expandir y consolidar
el
bien más preciado que hemos
reconquistado
después de 200 años: la
Independencia
Nacional.
5.3.1.1.
Involucrar a las instituciones públicas en la producción de críticas
contundentes
a las
formas culturales y a las reconstrucciones
Históricas
dominantes.
|
1.5.Desarrollar
nuestras capacidades
científico-
tecnológicas vinculadas a las necesidades
Del pueblo.
.
|
1.5.1.4. Impulsar la formación para la
ciencia,
el trabajo y la producción, como
soporte
para el avance de la revolución
científica
y tecnológica, a través de la formación
que
vincule la ciencia y la tecnología
con
la producción y el trabajo en formas
organizativas
y de construcción del
conocimiento
científico y su difusión desde
lo
colectivo así como desde las diferentes
instituciones
y organizaciones del Sistema
Educativo
Nacional. A tales efectos, se fomentará
la
consolidación de los espacios de participación ciudadana en la gestión pública
de las áreas temáticas y territoriales relacionadas con la ciencia, la
tecnología y la innovación.
1.5.3.3
Garantizar la creación y apropiación
del
conocimiento para el desarrollo,
producción
y buen uso de las telecomunicaciones
Y
tecnologías de información.
1.5.1.2.
Fortalecer y orientar la actividad científica, tecnológica y de innovación hacia
el aprovechamiento efectivo de las potencialidades y capacidades nacionales
para el desarrollo sustentable y la satisfacción de las necesidades sociales,
orientando la investigación hacia áreas estratégicas definidas como
prioritarias para la solución de los problemas sociales. Se promoverá
la
creación de unidades de innovación
asociadas
a unidades socioproductivas en
comunidades
organizadas, aprovechando
para
ello el establecimiento de redes nacionales
y
regionales de cooperación científica–tecnológica,
a fin
de fortalecer las capacidades
del
Sistema Nacional de Ciencia,
Tecnología
e Innovación.
1.5.1.3.
Garantizar el acceso oportuno y uso adecuado de las telecomunicaciones y
tecnologías de información, mediante el desarrollo de la infraestructura
necesaria, así como de las aplicaciones informáticas con sentido crítico y
atendiendo a necesidades sociales y la difusión. Se generarán contenidos
basados en valores nacionales, multiétnicos y pluriculturales de nuestros
pueblos, a la vez que se fomentarán los principios inherentes al Socialismo
Bolivariano.
|
CAPITULO III
MARCO METODOLOGICO
METODOLOGIA
DE CAMPO:
La metodología de la investigación de campo se presenta mediante
la manipulación de una variable externa no comprobada, en condiciones
rigurosamente controladas, con el fin de describir de qué modo o porque causas
se produce una situación o acontecimiento particular.
Podríamos definirla diciendo que es el proceso que,
utilizando el método
científico, permite obtener nuevos conocimientos
en el campo de la realidad social. (Investigación pura), o bien estudiar una
situación para diagnosticar necesidades y problemas a efectos de aplicar los conocimientos con fines prácticos
(investigación aplicada).
Este tipo de investigación es también conocida
como investigación in situ ya
que se realiza en el propio sitio donde se encuentra el objeto de estudio. Ello
permite el
conocimiento más a fondo del
investigador, puede manejar los datos con más seguridad y podrá soportarse en diseños exploratorios, descriptivos y
experimentales, creando una situación de control en la cual manipula sobre una o más variables dependientes (efectos).
Por tanto, es una situación provocada por el
investigador para introducir determinadas variables de estudio manipuladas por
él, para controlar el aumento o disminución de esas variables y su efecto en
las conductas observadas.
El uso del término investigación de campo es bastante coloquial. Hablamos de
experimentar cuando mezclamos sustancias químicas y observamos la reacción de
este hecho, pero también cuando nos cambiamos de peinado y observamos la
reacción de nuestras amistades en cuanto a nuestra transformación, también
estamos en presencia de un experimento de campo.
Cuando los datos se recogen directamente de la
realidad se les denominan primarios, su valor radica en que permiten cerciorarse de las verdaderas condiciones en
que se han obtenido los datos, por lo que facilita su revisión y/o modificación
en caso de surgir dudas. Conviene anotar que no toda información
puede alcanzarse por esta vía, ya sea por limitaciones especiales o de tiempo, problemas de escasez o de orden ético.
Pasos a seguir en la
Investigación de Campo:
1.
Concebir la idea a investigar: La
interacción constante con el ambiente nos permite observar situaciones que a menudo
despiertan una serie de interrogantes. Por ejemplo, en la práctica de
enfermería podemos observar que la mayoría de pacientes prefiere la
atención de determinadas enfermeras. Ante esto, surgen
inevitablemente preguntas como:
¿Por qué prefieren a
"fulanita" para que los atienda? ¿Cuál es la calidad de la atención
que proporcionarnos las demás enfermeras? ¿La calidad de la atención tiene que
ver en la recuperación del paciente?
Son muchas las interrogantes que
el investigador se plantea a la hora de elegir un tema de investigación.
2. Selección de la muestra: Básicamente se categorizar las muestras es dos grandes ramas: las probabilísticas y las no probabilísticas. Entiéndase por muestras probabilísticas como el subgrupo de la población en el que todos los elemento de este tienen la misma probabilidad de ser escogidos; por consiguiente, las muestras no probabilísticas es cuando la elección de los elementos no depende la probabilidad, sino con causas relacionadas con las características de la investigación o de quien hace la muestra.
3. Marco Teórico: Representa el soporte
inicial de la investigación. También se le llama Marco Teórico Conceptual,
Marco Referencial, Marco Estructural Conceptual de la Investigación y Marco
Conceptual.
Aborda las características del fenómeno o problema
en estudio. Estas características (cualidades) constituyen las variables, que
no son más que las diferentes proposiciones, diversos conocimientos, que
permitirán estudiar al problema. Es razonable que el investigador conozca de
las diferentes teorías que soportaran inicialmente el estudio, de allí la
importancia de las bases teóricas.El marco
teórico nos amplía la descripción del problema. Integra la teoría con la investigación y sus relaciones mutuas. Es la teoría
del problema, por lo tanto, conviene relacionar el marco teórico con el
problema y no con la problemática de donde éste surge. No puede haber un marco
teórico que no tenga relación con el problema.
4. Definir el tipo de investigación: Es necesario tener en cuenta el tipo de investigación o de estudio que se va a realizar, ya que cada uno de estos tiene una estrategia diferente para su tratamiento metodológico. Por ello, se debe indicar el tipo de investigación, si es una investigación, histórica, descriptivas o experimental. Si es un estudio causal, exploratorio o productivo.
4. Definir el tipo de investigación: Es necesario tener en cuenta el tipo de investigación o de estudio que se va a realizar, ya que cada uno de estos tiene una estrategia diferente para su tratamiento metodológico. Por ello, se debe indicar el tipo de investigación, si es una investigación, histórica, descriptivas o experimental. Si es un estudio causal, exploratorio o productivo.
5. Establecer las hipótesis: La hipótesis es el eslabón necesario entre la teoría y la
investigación que nos lleva al descubrimiento de nuevos hechos. Por tal, se
debe sugerir explicación a ciertos hechos y orientar la investigación a otros.
La hipótesis puede ser desarrollada desde distinto puntos de vista, puede estar
basada en una presunción, en el resultado de otros estudios, en la posibilidad
de una relación semejante entre dos o más variables representadas en un
estudio, o puede estar basada en una teoría mediante la cual una suposición de
proceso deductivo nos lleva a la pretensión de que si se dan ciertas
condiciones se pueden obtener ciertos resultados, es decir, la relación causa -
efecto. Una hipótesis sirve de guía para la obtención de datos en función del interrogante presentado en el problema y para indicar la
forma como debe ser organizado según el tipo de estudio.
6. Selección de la muestra: Es la actividad por la cual se toman ciertas muestras de una población de elementos de los cuales vamos a extraer algunos criterios de decisión, el muestreo es importante porque a través de él podemos hacer análisis de situaciones de una empresa o de algún campo de la sociedad. Una muestra debe ser representativa si va a ser usada para estimar las características de la población. Los métodos para seleccionar una muestra representativa son numerosos, dependiendo del tiempo, dinero y habilidad disponibles para tomar una muestra y la naturaleza de los elementos individuales de la población. Por lo tanto, se requiere un gran volumen para incluir todos los tipos de métodos de muestreo.
7. Recolección de datos: La investigación no tiene sentido sin las técnicas de recolección de datos. Estas técnicas conducen a la verificación del problema planteado. Cada tipo de investigación determinara las técnicas a utilizar y cada técnica establece sus herramientas, instrumentos o medios que serán empleados.
8. Análisis de Datos: Es en esta etapa cuando el investigador siente que su labor se está viendo culminada. Aquí estarán cifradas sus esperanzas de comprobación de sus supuestos, como también el amargo sabor de que algo faltó y que debe iniciar de nuevo el camino para ver qué ocurrió.
9. Presentación de los resultados: Con el material ya recogido y organizado, inicia una de las etapas más
interesantes, darle sentido, forma, explicación de los resultados obtenidos.
Consiste en la culminación. La labor completa de la
información con los datos procesados, analizados e interpretados, donde se ha
podido llegar a la determinación de la validez de las posiciones, donde se ha
llegado a establecer la eficacia de todo el proceso planificado, donde se han verificado las hipótesis
según el diseño seleccionado, donde las variables han sido operación
analizadas.
METODOLOGIA
DOCUMENTAL
El avance de la sociedad del
conocimiento está directamente relacionado con los avances científicos y
tecnológicos y que solo a través del proceso de investigación documental
se puede hacer un análisis de la información escrita sobre un determinado tema,
con el propósito de establecer relaciones, diferencias, etapas, posiciones o
estado actual del conocimiento respecto al tema objeto de estudios. , esta se
caracteriza por el empleo predominante de registros gráficos como fuentes de
información. Generalmente se le identifica con el manejo de mensajes
registrados en la forma de manuscritos e impresos, por lo que se le asocia
normalmente con la investigación archivística y bibliográfica.
El concepto de documento, sin
embargo, es más amplio. Cubre, por ejemplo: películas, diapositivas, planos y
discos. Las fuentes de la investigación son las enciclopedias, diccionarios y
libros; artículos, revistas, tesis, informes técnicos, manuscritos, monografías;
el propio centro de trabajo, la comunidad a la que se pertenece; los adelantos
de la tecnología, las conferencias, las discusiones académicas, los seminarios,
las clases, los congresos, las mesas redondas, la consulta a especialistas en
la materia que interesa estudiar; libros de texto, publicaciones periódicas de
la especialidad, folletos, programas de estudio, programas de investigación,
guías bibliográficas, catálogos, índices, boletines informativos, reseñas,
ensayos y es por esto que el mundo ha logrado describir conocer, predecir y
controlar los fenómenos que se presentan en la realidad circundante de la
humanidad.
El objetivo de la investigación
documental es elaborar un marco teórico conceptual para formar un cuerpo de
ideas sobre el objeto de estudio y descubrir respuestas a determinados
interrogantes a través de la aplicación de procedimientos documentales. Estos
procedimientos han sido desarrollados con el objeto de aumentar el grado de
certeza de que la información reunida será de enteres para los integrantes que
estudia y que además, reúne las condiciones de fiabilidad y objetividad
documental. Técnica documental que permite la recopilación de información
para enunciar las teorías que sustentan el estudio de los fenómenos y procesos.
Incluye el uso de instrumentos definidos según la fuente documental a que hacen
referencia.
Con el propósito de elegir los
instrumentos para la recopilación de información es conveniente referirse a las
fuentes de información. Esta revisión es selectiva; teniendo en cuenta que cada
año se publica en muchas partes del Mundo gran cantidad de artículos de
revista, libros y otras clases de materiales dentro de las diferentes áreas del
conocimiento, será importante seleccionar las relevantes y las más recientes informaciones.
Sin embargo, no debe inferirse que todos los materiales publicados son fuentes
adecuadas o fidedignas de información. Los errores que pueden contener de
resultados subjetivos o incompetencia del recopilador o investigador deberán
utilizarse, primordialmente, como guía para las segundas fuentes originales y,
siempre que sea posible, proceder a la comprobación de las primeras respecto a
los datos necesarios.
Las fuentes de información de la
investigación documental son:
FUENTE
PRIMARIA: Libros, artículos,
monografías, tesis, documentos, trabajos de investigación presentados en
conferencias, congresos y seminarios .Estas fuentes son los documentos que
registran o corroboran el conocimiento inmediato de la investigación. Incluyen
libros, revistas, informes técnicos y tesis. Libros: De acuerdo con la
UNESCO (1964), se llama libro a aquella publicación que tiene más de 49
páginas, y folleto a la que tiene entre cinco y 48 páginas.
Informes técnicos: En este tipo
de informes se incluyen las memorias de conferencias, los informes de
congresos, reuniones y otros. Son importantes debido a que la información
generalmente versa sobre asuntos de actualidad que afectan a una comunidad
particular o son de interés grupal. Diarios y periódicos.
FUENTE
SECUNDARIA: Resúmenes y listados de
referencias publicados en un área específica de conocimiento. Cualquier fuente
secundaria que se utilice tendrá que ser objeto de comprobación de cualquier
factor que puedan afectar la exactitud o la validez de la información Este
renglón incluye las enciclopedias, los anuarios, manuales, almanaques, las
bibliografías y los índices, entre otros; los datos que integran las fuentes
secundarias se basan en documentos primarios. Depósitos de información: el
primer paso para recabar datos es acudir a los centros de información, como
biblioteca, hemeroteca, archivos y museos. En la búsqueda de información en la
biblioteca es importante tener algunas nociones sobre su organización y
funcionamiento, tales como: Los libros están ordenados de manera alfabética. Se
clasifican por fichas. Se marca en los lomos del libro el código por fechas. Se
forman catálogos Se elaboran registros para localizar materiales afines a la
obra. Por lo tanto se trata de hacer una cuidadosa revisión de los
estudios teóricos y prácticos que ya se han realizado y que tienen relación con
el problema planteado. Esta revisión se debe hacer porque no existe campo del
conocimiento, completamente nuevo o inexplorado.
Todo estudio debe tomar elementos
del pasado y reconocer lo que otras personas o investigadores han hecho. No
realizar una exhaustiva revisión documental conduce a errores graves y a
desaprovechar la oportunidad de hacer un trabajo más original y
metodológicamente más objetivo.
Por eso la investigación
documental puede iniciarse directamente en el acopio de las fuentes primarias,
situación que ocurre cuando el investigador conoce la ubicación de la
información y se encuentra familiarizado con el campo de estudio.
Sin embargo se dan casos en los
que hay poco material en hemerotecas número reducido de centros de información,
donde muchas veces las colecciones de revistas son incompletas o no se
encuentran actualizadas y no disponen de documentos muy fiables.
OTRAS
FUENTES: Con la expansión de
las comunicaciones en red una nueva sociedad está emergiendo al lado de la sociedad
real. Se trata de la sociedad virtual. Su territorio es el ciberespacio y su
tiempo, como no, es el tiempo virtual. Se trata de un fenómeno novedoso, cuyas
características son escasamente conocidas, puesto que esta sociedad está en
pleno despliegue. Es una sociedad que no podría existir al margen de la
sociedad real, que es su soporte material. Pero, aunque comparte con ella un
conjunto de rasgos comunes, tiene sus propias especificaciones, que la han
convertido en un tema de gran interés para los académicos interesados en indagar las características que
tendrá la nueva sociedad que se está gestando en medio de la crisis de la sociedad industrial.¿ Que es la Web grafía ? es un
directorio de aplicaciones y recursos libres, puede seleccionar una categoría y
explorar los diferentes recursos.
¿Cuáles
son las categorías? Actualmente se cuenta con 21
recursos distribuidos en las siguientes 17
categorías Redes, Oficina, Multimedia, Desarrollo, Matemáticas, Juegos, Técnicas, Gráficos, Educación, Ciencia, Ingeniería, Bases
de datos, Sistemas
operativos, Escritorio, Seguridad, Utilidades, entre
otros.
¿Cuáles
son los tipos de recursos? En este momento
se clasifican los tipos de recursos en 3: Programas, Documentos, Enlaces,
en el caso de programas y documentos no se encuentran al interior del portal,
de hecho el directorio solo organiza, clasifica y enlaza los recursos.
METODOLOGIA
DESCRIPTIVA
Cuando se habla de la metodología de la investigación
descriptiva nos referimos a un ttipo de
investigación que describe de modo sistemático las características de una
población, situación o área de interés.
Aquí los investigadores recogen los
datos sobre la base de una hipótesis o teoría, exponen y resumen la información
de manera cuidadosa y luego analizan minuciosamente los resultados, a fin de
extraer generalizaciones significativas que contribuyan al conocimiento, tiene
como objetivo es llegar a conocer las situaciones, costumbres y actitudes predominantes
a través de la descripción exacta de las actividades, objetos, procesos y
personas.
Su meta no se limita a la recolección de
datos, sino a la predicción e identificación de las relaciones que existen
entre dos o más variables. Podemos ordenar sus etapas de la siguiente forma:
·
Examinar las características del
problema.
·
Definición y formulación de hipótesis.
·
Enuncian los supuestos en que se basa la
hipótesis.
·
Eligen las fuentes para elaborar el
marco teórico.
·
Selección de técnicas de recolección de
datos.
·
Establecen categorías precisas, que se
adecúen al propósito del estudio y permitan poner de manifiesto las semejanzas,
diferencias y relaciones significativas.
·
Verificación de validez del instrumento.
·
Realizar observaciones objetivas y
exactas.
·
Descripción, análisis e interpretación
de datos.
El propósito del investigador es describir situaciones y eventos.
Esto es, decir cómo es y se manifiesta determinado fenómeno. Los estudios
descriptivos buscan especificar las propiedades importantes de personas,
grupos, comunidades o cualquier otro fenómeno que sea sometido a análisis Miden
o evalúan diversos aspectos, dimensiones o componentes del fenómeno o fenómenos
a investigar. Desde el punto de vista científico, describir es medir. Esto es,
en un estudio descriptivo se selecciona una serie de cuestiones y se mide cada
una de ellas independientemente, para así -y valga la redundancia-- describir
lo que se investiga. El proceso de la
descripción no es exclusivamente la obtención y la acumulación de datos y su tabulación
correspondiente, sino que se relaciona con condiciones y conexiones existentes,
prácticas que tienen validez, opiniones de las personas, puntos de vista,
actitudes que se mantienen y procesos en marcha.
DIAGNOSTICO PARTICIPATIVO
El Diagnóstico Participativo es un método para determinar, desde el punto
de vista de los miembros de la comunidad, qué actividades son necesarias y
pueden apoyarse; si los miembros de la comunidad aceptan las actividades
propuestas por el personal externo y si tales actividades son razonables y prácticas.
Los miembros de la comunidad, ayudados por el personal externo, pasan por un
proceso en el cual identifican las condiciones que son necesarias para la
realización exitosa de las actividades y acopian información para determinar si
la comunidad reúne estas condiciones o si puede crearlas. El «marco referencial
del diagnóstico» examina cada actividad en relación con las condiciones
necesarias y elimina aquellas actividades para las que no se dan estas
condiciones.
la actualidad para la realización de proyectos se emplean cada vez más
métodos de obtención y análisis de información que permiten tomar decisiones en
forma participativa La participación se
refiere al control que las personas y las comunidades tienen de sus decisiones
y acciones relacionadas con su vida. Diagnosticar viene del griego diagnosis y
significa: conocer a través de, es un proceso de comprensión que implica
investigar, estudiar, analizar, discutir y proponer. ¿Por qué o para qué hacer un diagnóstico
participativo? Porque, mientras la comunidad analiza el diagnóstico, va
comprendiendo mejor su situación, identificando los problemas y obstáculos que
impiden su desarrollo y determinando las prioridades. El diagnóstico
participativo es una actividad colectiva; sin embargo, es conveniente que la
comunidad cuente con el apoyo de facilitadores para aplicar la metodología
adecuada al proceso investigativo llevado a cabo por los sectores populares.
¿Cuáles son los problemas, necesidades, recursos y potencialidades? El objetivo del diagnóstico participativo es
obtener información acerca de los problemas y
necesidades comunitarias y su articulación dinámica con recursos locales
y externos, así como las oportunidades de desarrollo que tienen los habitantes
de la comunidad. Los problemas comunitarios afectan el normal desenvolvimiento social de
los habitantes de un área geográfica determinada, dentro de estas dificultades
se pueden mencionar: falta de servicios
básicos (aseo urbano, electricidad, agua, cloacas, asfalto); inseguridad,
desempleo, falta de infraestructura recreativa (canchas, centros culturales,
parques, plazas); de infraestructura social (escuelas, mercados, iglesias, guarderías, estación de bomberos, edificio de
la Municipalidad, edificio de la Policía, recreación), entre otros. Los recursos comunitarios son las fortalezas presentes en la comunidad:
talento humano (albañiles, artesanos, panaderos, ingenieros, mecánicos,
maestros); vocación económica y productiva; elementos naturales (árboles
frutales, minas, peces, playas, ríos); organización social existente (tribunal
electoral, patrullas, grupos culturales, deportivos, religiosos, comerciantes,
grupos de voluntarios). Las
oportunidades comunitarias son los componentes ajenos a la comunidad que pueden
ser empleados en su beneficio: los programas sociales de gobierno; los planes
de financiamiento (cajas de ahorro, bancos, cooperativas, fondos de crédito
regional); las potencialidades del suelo, entre otros.
FACTORES DEL DIAGNÓSTICO
PARTICIPATIVO:
POLÍTICOS Y LEGALES: Se refieren a las leyes y todo lo que implica una
posición de poder dentro de la sociedad en sus diferentes niveles que
repercutirán en lo económico.
NSTITUCIONALES: Conjunto de normas, valores, formas de pensar,
características estructurales y funcionales propias de las organizaciones.
CULTURALES: Predominio de actitudes
que caracterizan el funcionamiento de un grupo u organización y que afectan la
forma en que evalúan las alternativas para satisfacer sus necesidades. PSICOSOCIALES: Son las
conexiones que existen entre la persona y la sociedad a través del
comportamiento en el entorno que lo rodea.
¿Cómo se logra la participación de la comunidad en la elaboración del
diagnóstico? Debe realizarse una
convocatoria abierta y atractiva a todos los habitantes de la localidad. Los habitantes de una determinada área
geográfica se interesen por los problemas que aquejan a su comunidad y estén
dispuestos a proponer soluciones. Para
realizar la convocatoria es conveniente apoyarse en los líderes comunitarios,
así como en todas las fuerzas sociales y políticas que estén presentes en la
comunidad.
MATRIZ F.O.D.A.
La matriz FODA es una herramienta de análisis que puede ser aplicada a
cualquier situación, individuo, producto, empresa, etc, que esté actuando como
objeto de estudio en un momento determinado del tiempo. Es como si se tomara una “radiografía” de una
situación puntual de lo particular que se esté estudiando. Las variables
analizadas y lo que ellas representan en la matriz son particulares de ese
momento. Luego de analizarlas, se deberán tomar decisiones estratégicas para
mejorar la situación actual en el futuro.
El análisis FODA es una herramienta que permite conformar un cuadro de
la situación actual del objeto de estudio (persona, empresa u organización,
etc) permitiendo de esta manera obtener un diagnóstico preciso que permite, en
función de ello, tomar decisiones acordes con los objetivos y políticas
formulados. Luego de haber realizado el
primer análisis FODA, se aconseja realizar sucesivos análisis de forma
periódica teniendo como referencia el primero, con el propósito de conocer si
estamos cumpliendo con los objetivos planteados en nuestra formulación
estratégica. Esto es aconsejable dado que las condiciones externas e internas
son dinámicas y algunos factores cambian con el paso del tiempo, mientras que
otros sufren modificaciones mínimas.
El objetivo primario del análisis FODA consiste en obtener conclusiones
sobre la forma en que el objeto estudiado será capaz de afrontar los cambios y
las turbulencias en el contexto, (oportunidades y amenazas) a partir de sus
fortalezas y debilidades internas. Ese
constituye el primer paso esencial para realizar un correcto análisis FODA.
Cumplido el mismo, el siguiente consiste en determinar las estrategias a
seguir. Para comenzar un análisis FODA
se debe hacer una distinción crucial entre las cuatro variables por separado y
determinar qué elementos corresponden a cada una. A su vez, en cada punto del tiempo en que se
realice dicho análisis, resultaría aconsejable no sólo construir la matriz FODA
correspondiente al presente, sino también proyectar distintos escenarios de
futuro con sus consiguientes matrices FODA y plantear estrategias
alternativas. Tanto las fortalezas como
las debilidades son internas de la organización, por lo que es posible actuar
directamente sobre ellas. En cambio las oportunidades y las amenazas son
externas, y solo se puede tener injerencia sobre las ellas modificando los
aspectos internos.
Fortalezas: son las capacidades especiales con que cuenta la
empresa, y que le permite tener una posición privilegiada frente a la
competencia. Recursos que se controlan, capacidades y habilidades que se
poseen, actividades que se desarrollan positivamente, etc.
Oportunidades: son aquellos factores que resultan positivos,
favorables, explotables, que se deben descubrir en el entorno en el que actúa
la empresa, y que permiten obtener ventajas competitivas.
Debilidades:
son aquellos factores que provocan una posición desfavorable frente a la
competencia, recursos de los que se carece, habilidades que no se poseen,
actividades que no se desarrollan positivamente, etc.
Amenazas: son aquellas situaciones que provienen del entorno y que
pueden llegar a atentar incluso contra la permanencia de la organización. A continuación se enumeran diferentes
ejemplos de las variables que debemos tener en cuenta al momento de analizar
las fortalezas, las debilidades, las oportunidades y las amenazas.
Ejemplos de Fortalezas
·
Buen
ambiente laboral.
·
Proactividad
en la gestión.
·
Conocimiento
del mercado.
·
Grandes
recursos financieros.
·
Buena
calidad del producto final.
·
Posibilidades
de acceder a créditos.
·
Equipamiento
de última generación.
·
Experiencia
de los recursos humanos.
·
Recursos
humanos motivados y contentos.
·
Procesos
técnicos y administrativos de calidad.
·
Características
especiales del producto que se oferta.
·
Cualidades
del servicio que se considera de alto nivel.
Ejemplos de Debilidades
·
Salarios
bajos.
·
Equipamiento
viejo.
·
Falta
de capacitación.
·
Problemas
con la calidad.
·
Reactividad
en la gestión.
·
Mala
situación financiera.
·
Incapacidad
para ver errores.
·
Capital
de trabajo mal utilizado.
·
Deficientes
habilidades gerenciales.
·
Poca
capacidad de acceso a créditos.
·
Falta
de motivación de los recursos humanos.
·
Producto
o servicio sin características diferenciadoras.
Ejemplos de Oportunidades
·
Regulación
a favor.
·
Competencia
débil.
·
Mercado
mal atendido.
·
Necesidad
del producto.
·
Inexistencia
de competencia.
·
Tendencias
favorables en el mercado.
·
Fuerte
poder adquisitivo del segmento meta.
Ejemplos de Amenazas
·
Conflictos
gremiales.
·
Regulación
desfavorable.
·
Cambios
en la legislación.
·
Competencia
muy agresiva.
·
Aumento
de precio de insumos.
·
Segmento
del mercado contraído.
·
Tendencias
desfavorables en el mercado.
·
Competencia
consolidada en el mercado.
·
Inexistencia
de competencia (no se sabe cómo reaccionará el mercado).
ENFOQUE DEL MARCO LOGICO
El marco lógico fue creado en 1969, por la firma consultora Practical
Concepts Inc., específicamente por León Rossenberg y Lawrence Posner, bajo
contrato de la Agencia Internacional de Desarrollo de los Estados Unidos
(USAID), con el fin de mejorar la calidad de las inversiones sociales,
superando los tres problemas que en opinión de sus creadores eran los
principales defectos de los proyectos de desarrollo: planificación demasiado
imprecisa, responsabilidad gerencial ambigua y evaluación excesivamente controversial.
A finales de 1997 y principios de 1980, fue rediseñado por la Agencia Alemana
de Cooperación Técnica (GTZ), bajo el nombre de Planificación de Proyectos
Orientada a Objetivos (ZOPP), la cual incorporó nuevos elementos a la
concepción original del marco lógico, como el análisis de participantes,
análisis de problemas, análisis de objetivos y análisis de alternativas. El
trabajo en equipos multidisciplinarios mediante talleres en los que tomaban
parte la GTZ, las organizaciones contrapartes y los grupos beneficiarios
también fue incorporado en lo que constituyó una metodología participativa de
diseño de proyectos.
El marco lógico permite un diseño que satisface tres requerimientos
fundamentales de calidad de un proyecto de desarrollo: coherencia, viabilidad y
evaluabilidad. Su creciente popularidad se debe al importante hecho de
constituir la principal técnica no cuantitativa de análisis científico en el
campo de la política del desarrollo. En la actualidad el enfoque del marco
lógico es utilizado por la mayoría de las agencias de cooperación y desarrollo
a nivel mundial, como el Banco Interamericano de Desarrollo (BID) y el Banco
Mundial (BM).
El Marco Lógico es el enfoque metodológico de mayor uso en diseño,
ejecución y evaluación de proyectos de desarrollo. La experiencia internacional
y nacional de los últimos 50 años es prueba indiscutible de la validez del
enfoque en proyectos para la promoción del desarrollo y de su utilidad en la
gestión del ciclo de los proyectos, en particular, en su diseño.
Cuando se aplica el enfoque del marco lógico, debe establecerse claramente
la diferencia entre el marco lógico como matriz (una tabla de cuatro columnas y
cuatro filas) y marco lógico como enfoque para la gestión del ciclo de
proyectos como metodología y que concluye en la fase de matriz propiamente.
Desde este punto de vista, el marco lógico se define en los siguientes términos:
herramienta de análisis estructurado que permite facilitar el proceso de
identificación, diseño, ejecución y evaluación de políticas, programas,
proyectos y diseños organizacionales, pudiendo aplicarse en cualquier fase de
sus respectivos procesos de planificación. Expresado en esta forma, el marco
lógico está íntimamente vinculado al ciclo del proyecto, razón por la cual
siempre hablamos, con absoluta propiedad, del enfoque del marco lógico en la
gestión del ciclo del proyecto.
El principio subyacente al enfoque del marco lógico es la relación de causa
a efecto, base de la lógica tal y como ella existe desde que Aristóteles
estableciera sus cimientos filosóficos y científicos. Cuantos más estrechos
sean los vínculos de causa a efecto entre los objetivos y entre éstos y los
demás componentes, mejor será el diseño del proyecto. Por ello, cada proyecto
que se desarrolla empleando el enfoque del marco lógico debe hacer explícita la
relación de causa a efecto comprendida en él.
Así tenemos que:
- Las relaciones de causa y efecto entre los distintos niveles de objetivos
(relaciones de Actividades con Componentes, de Componentes con el Propósito y
de Propósito con el Fin) describen las condiciones necesarias para que un
proyecto sea exitoso.
- Las relaciones de causa y efecto entre los objetivos y los supuestos
aclaran la probabilidad de que el proyecto tenga éxito, bajo un contexto social
y general dados.
En el contexto del enfoque del marco lógico, para la obtención de un
determinado objetivo existen dos tipos de condiciones:
- Las condiciones necesarias, que se establecen a lo largo de la columna de
objetivos.
- Las condiciones suficientes, que se establecen en la columna de
supuestos.
ARBOL DE PROBLEMAS
SOFTWARE:

ARBOL DE PROBLEMAS
HARDWARE:

ARBOL DE PROBLEMAS
PROYECTO CANAIMA EDUCATIVO:

|
METODOLOGIAS UTILIZADAS
|
TECNICAS APLICADAS
|
INSTRUMENTOS DE RECOLECCION DE DATOS
|
|
De campo
Documental
Descriptiva
|
Entrevistas.
Cuestionario.
Observaciones.
|
Cámara, Teléfono.
Encuestas.
Computador (Internet).
|
MATRIZ F.O.D.A.
|
FORTALEZAS
|
OPORTUNIDADES
|
DEBILIDADES
|
AMENAZAS
|
|
Todos los alumnos
poseen canaimas.
|
A través del
proyecto de alfabetización tecnológica pueden conocer el proyecto Canaima
educativo.
|
No tienen
profesores capacitados.
|
No están siendo
utilizadas en el proyecto educativo.
|
|
Los niños tienen el
interés de aprender a utilizar la distribución Canaima.
|
Formación desde
temprana edad para así en un futuro poder sacar el máximo provecho posible al
software libre.
|
Los padres poseen
Capacitación
adecuada con el manejo de las canaimas.
|
Perdidas de
componentes internos, como de las canaimas.
|
|
Los padres apoyan
el proyecto para la alfabetización tecnológica que se realizara en la institución a sus representados.
|
Si los padres
aprenden a utilizar los equipos y sus contenidos educativos podrán ayudar a
sus hijos con las actividades escolares.
|
Actualmente los
representantes no tienen un conocimiento concreto de la
Finalidad del
proyecto Canaima educativo.
|
Al no tener conocimiento sobre el proyecto
permiten a sus niños utilizar los equipos como un juguete lo que suele
resultar en daños al mismo.
|
ANEXOS
Planilla tutor institucional:


Planilla tutor técnico:

Propuesta a la institución:

Oficio del IUTEB:

Visitas de asesorías:







Nota de prensa:

PROYECTO SOCIOTECNOLOGICO I
UNIDAD III
- VALIDACIÓN DEL PROBLEMA CON LA INSTITUCIÓN O COMUNIDAD
GRUPO N° 5 SECCION T3
INTEGRANTES:
C.I.
Wendy Bohorquez
26.139.052
Lorenzo Pérez
25.914.245
Michel Novellino
24.542.308
Luis Torres
25.659.843
TUTOR INSTITUCIONAL: Yamilet Carvajal
CIUDAD BOLIVAR, 20 DE NOVIEMBRE DE 2014
Canaima Educativo es un proyecto del Gobierno Bolivariano que tiene por
objetivo apoyar la formación integral de las niñas y los niños, mediante la
dotación de una computadora portátil escolar con contenidos educativos a los
maestros y estudiantes del subsistema de educación primaria.
SIX
NO
INSTITUCION EDUCATIVA: U.E.N “Dr Columbo Silva Bolívar”
DEPENDENCIA:
NACIONALX
ESTATAL MUNICIPAL
PRIVADA OTRA
GRADO 3ro
SECCION “U”
TODOS SUS ALUMNAS Y ALUMNOS TIENEN LA CANAIMITA?
SI
NO X
EN CASO NEGATIVO: CUANTAS COMPUTADORAS PORTATILES FALTA EN SU SECCION?
2
4 7
10 OTRO 3
¿TIENE USTED SU COMPUTADORA PORTATIL?
SI
NOX
¿TODAS LAS CANAIMITAS TRABAJAN CON SOFTWARE LIBRE?
SI X
NO
¿EN CASO NEGATIVO: CUANTAS TIENEN OTRO SISTEMA OPERATIVO?
2 4
6
9 OTRO
¿ESTAN ACTUALIZADAS CON EL CONTENIDO DEL GRADO QUE CURSAN?
SIX NO
¿TODAS TIENEN SUS BATERIAS??
SIX NO
¿TODAS LAS CANAIMITAS TIENEN SUS CARGADORES?
SI NOX
¿EL SALON TIENE FALLAS CON LA ELECTRICIDAD?
SI X NO
¿EL SALON CUENTA CON CONEXIÓN DE INTERNET?
SI NOX
¿EN CASO AFIRMATIVO COMO ES LA CALIDAD DE ESA CONEXIÓN?
REGULAR
BUENA MUY BUENA
¿EN CASO NEGATIVO: QUE OCURRE CON LA CONEXIÓN DE INTERNET EN SU AULA?
No posee conexión wifi ni cableada.
¿HIZO EL CURSO DE ACTUALIZACION DOCENTE DEL PROYECTO CANAIMA EDUCATIVO?
SI NOX
¿USA Y MANEJA SOFTWARE LIBRE?
SI NOX
¿Los contenidos educativos, aplicaciones y funciones son totalmente
desarrollados en Software Libre?
SI X NO
¿EL OBJETIVO GENERAL DEL PROYECTO CANAIMA EDUCATIVO ES?
Promover la formación integral de los niños y niñas venezolanos (as),
mediante el aprendizaje liberador y emancipador apoyado por las Tecnologías de
Información Libres. ( X )
•Promover el desarrollo integral de los niños y niñas en correspondencia
con los fines educativos.( )
•Profundizar la concreción del Desarrollo Curricular para la formación
integral y con calidad de llos niños y niñas venezolanos.
( )
•Transformar la praxis docente con el uso crítico y creativo de las
Tecnologías de Información Libres. ( )
•Desarrollar las potencialidades en Tecnologías de Información Libres, para
el apoyo a los procesos educativos en pro de la soberanía y la independencia
tecnológica. ( )
¿Las computadoras portátiles escolares quedan bajo resguardo de los
planteles en Gabinetes Móviles, en los cuales son cargadas sus baterías y
transportadas hasta los pupitres de las niñas y los niños?
SI NOX
EN CASO NEGATIVO: EXPLIQUE COMO FUNCIONA EN SU SECCION.
Se les permite a los niños llevárselas a sus hogares.
Mediante un dispositivo inalámbrico se conecta la computadora portátil
escolar de cada niña y cada niño con la computadora portátil del maestro,
conformando una Red Salón que le permite guiar y orientar el proceso de
aprendizaje.
SI NOX
EN CASO NEGATIVO EXPLIQUE EL PROCESO
No hay conexión a internet
¿CUALES SON LAS CATEGORÍAS DE LOS CONTENIDOS EDUCATIVOS DE SU
GRADO?
PARA LA FAMILIA
· Lectura sugerida.
Por ejemplo: ideología y política, contenidos sobre América latina, entre
otros.
PARA EL DOCENTE
· Caracterizaciones.
Por ejemplo: lenguaje y comunicación, ciencias y tecnología, cultura,
actividades recreativas.
PARA LOS ESTUDIANTES
· Ciencias sociales y
geo historia.
· Lenguaje y
comunicación.
· Cultura.
· La hora de la
diversión.
· Actividades físicas
y recreativas.
· Ciencia y
tecnología.
¿TIEMPO TRABAJANDO CON ESTE PROYECTO?
Hace 1 mes.
¿QUE OPINA DE ESTE PROYECTO EN EL DESARROLLO DE SU LABOR DOCENTE?
Ayuda a los alumnos y alumnas en su desarrollo académico.
¿ESTA CONFORME CON LOS RESULTADOS?
SI X NO
¿LE PARECE INTERESANTE EL APOYO DEL PNF INFORMATICA IUTEB PARA SOLUCIONAR
ALGUNOS INCONVENIENTES?
SI X NO
|
BLOGS INDIVIDUALES
|
BLOG GRUPAL
|
BLOG INSTITUCIONAL
|
|
|
|
|
|
VIDEOS PUBLICADOS
|
|
Segundo vídeo, de la Visita a la U.E.N. Columbo
Silva Bolívar. Mostrando el patio central de la institución: https://www.youtube.com/v/GBvJIvMNTOs
Convocatoria al diagnóstico participativo por Radio
IUTEB: https://www.youtube.com/watch?v=fg9-t22vtDk
Convocatoria al diagnóstico participativo
por Radio Venezuela: https://www.youtube.com/watch?v=dbCaLoz7yuw
|
Galería Fotográfica:






No hay comentarios:
Publicar un comentario