Manual para crear SKYNET #AI Utilizando Google

Como buscador, y como proveedor de inteligencia artificial implementando un algoritmo de aprendizaje basado en el análisis de cómo cerrar en un humano el Circulo de Competencia en un tópico y su ramificaciones a nivel científico a partir de la información disponible en internet incluso sirviéndose de la vulgarización.

Un poco desordenado pues se trato de amuñuñar las ideas para no olvidarlas…

 

Circulo de Competencia = (Conocimiento+Habilidad+experiencia+Entendimiento)

Entendimiento = habilidad de utilizar el conocimiento para analizar ¿por qué? los resultados de la experiencia fueron positivos o negativos con bases científicas (Física, química o matemática aplicadas (Las cuales deberían ser los tópicos iniciales alimentados al algoritmo luego de que este posea la comprensión del lenguaje #Watson de #IBM lo hace)

Alimentación de datos:

Un bot visita y descarga de la web, los resultados de 4 búsquedas de Google sobre un tópico de interés en ingles (maximizar contenido).

 

Las búsquedas:

  • Avanzados
  • Intermedios
  • Generales
  • vulgarización

 

Todo el contenido (probablemente sin la publicidad) es alimentado como gigantesca base de datos a una red neuronal de #DeepLearning #GoogleTM que tiene como parámetros de adquisición de conocimiento y aprendizaje el siguiente modelo pedagógico que es de mi entera imaginación y me pertenece:

“Leer” los datos de los resultados de vulgarización.
Incluidos videos para lo que se utiliza una conversión de audio a texto y reconocimiento de texto en el video sincronizado con el audio convertido a texto del momento.

Datos de los fórums: (Método para desarrollar un algoritmo de expansión de conocimiento)

Utilizar análisis de frecuencia para reconocer palabras clave asociadas a la obtención de resultados positivos.

Analizar la totalidad del contenido utilizando #TreeSearch generando una base de datos dinámica que permita analizar todos los escenarios posibles e integrando como refinación aquellos asociados a acciones que generaron resultados positivos en el análisis de frecuencia realizado anteriormente.

Esto sería el equivalente a generar experiencia por medio del análisis de datos para crear posibles escenarios donde sería importante que el algoritmo sea capaz de aplicar posteriormente en un segundo análisis luego de haber desarrollado el método que se explica a continuación)

Las palabras claves son utilizadas para identificar términos científicos y establecer interacciones o nubes de palabras claves que #DeepLearning utilizaría en una segunda fase que es el aprender por si mismo reutilizando estos métodos con estas las palabras clave pasándolas por este mismo proceso y enriquecidas con resultados de búsquedas científicas sobre la lista de palabras clave, lo cual es importantísimo de alimentar de golpe para análisis y aprendizaje los conceptos científicos que sustentan los conocimientos vulgarizados que a su vez simulan la experiencia humana anecdótica, en caso de que estas se repitan para evitar un bucle de constante alimentación científica, referencias a información serán filtradas comprobando que no existan en la cadena de leídas o por leer y simplemente una referencia cruzada al índice maestro de la base de datos será añadido para referenciación cruzada en análisis de datos posterior.

Al encadenar en bucle semicircular los procesos de #TreeSearch utilizando como bias positivo las justificaciones científicas en procesos físicos-químicos, cuantificables matemáticamente y representables gráficamente (¿o no?) en planos dimensionales, simplemente emulamos el proceso de análisis estructurado que conlleva a la adquisición de conocimiento al entender la justificación de los resultados anecdóticos, gracias a las interacciones físico-químicas y su representación matemática, o dicho más simple, su impacto en su entorno cuantificado en unidades.

Esto por si solo permite crear una raíz (de árbol) de tópicos pre requeridos lo cual resulta en un pensum de conocimiento a adquirir para dominar un tópico particular a través de verlo como parte de un proceso de reacciones en el universo o en su entorno (Análisis nodal ¿? Uhmm?) (Raíz de desarrollo de #SelfLearning y base para generar contenido curado.)

Segundo paso (De la vulgarización a la generalización)

Gran parte de la generalización está relacionada con la adquisición de los pre requisitos de conocimiento básicos en este paso el análisis estructurado se realiza solo para asegurarse que la vulgarización identifico todas las palabras clave de conocimiento científico requeridas para cubrir el conocimiento general.

(Dos casos posibles: muchas nuevas aparecen-> baja calidad de contenido o insuficiente sobre el tópico, o al contrario el conocimiento identificado como: “a adquirir” gracias a la vulgarización, excede las barreras del conocimiento general. Sería interesante saber pues cada una requiere una estrategia diferente)

Añadir, si necesario nuevos pre requisitos a la raíz que se puede ver como una matriz de conocimiento.

El tercer paso es más o menos la misma cosa, lo continuamos en otra entrega, hay mucho para donde ir…

Mientras lo descubrimos y lo escribimos… vacilence estos videos:

Un Indio loco nos vacila y nos enseña como funcionan las redes neuronales en esta serie de videos.

avatar
es un autor que esta loco de remate, para no ponerse a barrer con un papermate, se dedica a escribir pendejadas en la WEB para que nadie las visite. Como la escoba se le rompio, escribe con la computadora.

Entrada publicada en: Articulos, Opinion con las etiquetas , , , , escrita por: Nathan . Guarda el Enlace .
©2008 Streaming Freedom Libertad de transmision http://rockdio.org
Twitter
Facebook