La sociología computacional, Historia, Revistas y publicaciones académicas, Asociaciones, Conferencias y Talleres, Programas Académicos, Departamentos y Titulaciones, Centros e Institutos



La sociología computacional es una rama de la sociología que utiliza métodos de cálculo intensivo para analizar y modelar los fenómenos sociales. Usando simulaciones por ordenador, la inteligencia artificial, los métodos estadísticos complejos y enfoques analíticos como el análisis de redes sociales, la sociología computacional desarrolla y pone a prueba las teorías de los procesos sociales complejos a través de modelos de abajo hacia arriba de las interacciones sociales.

Se trata de la comprensión de los agentes sociales, la interacción entre estos agentes, y el efecto de estas interacciones en el agregado social. A pesar de la temática y las metodologías de las ciencias sociales se diferencian de los de las ciencias naturales o ciencias de la computación, varios de los métodos utilizados en la simulación social contemporánea se originó en campos como la física y la inteligencia artificial. Algunos de los enfoques que se originaron en este campo han sido importados en las ciencias naturales, como las medidas de centralidad de la red en los campos de análisis de redes sociales y la ciencia de las redes.

En literatura, la sociología computacional a menudo se relaciona con el estudio de la complejidad social. Complejidad conceptos sociales como sistemas complejos, la interconexión no lineal entre macro y micro procesos, y la aparición, han entrado en el vocabulario de la sociología computacional. Un ejemplo práctico y bien conocida es la construcción de un modelo de cómputo en la forma de una "sociedad artificial", por el cual los investigadores pueden analizar la estructura de un sistema social.

Historia

 Ver también: Sociología y complejidad científica

La teoría de sistemas y el funcionalismo estructural

 Artículo principal: Teoría de Sistemas y el funcionalismo estructural

En la era de la posguerra, analizador de Vannevar Bush diferencial, autómatas celulares de John von Neumann, la cibernética de Norbert Wiener, y la teoría de la información de Claude Shannon se convirtió paradigmas influyentes para el modelado y la comprensión complejidad de los sistemas técnicos. En respuesta, los científicos de disciplinas como la física, la biología, la electrónica y la economía comenzó a articular una teoría general de los sistemas en los que todos los fenómenos naturales y físicos son manifestaciones de elementos interrelacionados en un sistema que tiene patrones y propiedades comunes. Después de la llamada de millas Durkheim analizar compleja sociedad moderna sui generis, la posguerra sociólogos funcionalistas estructurales como Talcott Parsons aprovechadas estas teorías de la interacción sistemática y jerárquica entre los elementos que lo constituyen para tratar de generar grandes teorías sociológicas unificadas, como el paradigma AGIL. Sociólogos como George Homans argumentaron que las teorías sociológicas deben formalizarse en las estructuras jerárquicas de las proposiciones y la terminología precisa de la que otras proposiciones e hipótesis podrían derivarse y operacionalizar en los estudios empíricos. Como los algoritmos y programas informáticos se han utilizado ya en 1956 para probar y validar los teoremas matemáticos, como el teorema de los cuatro colores, científicos sociales y en dinámica de sistemas prevén que los enfoques computacionales similares pueden "resolver" y "probar" los problemas de manera análoga formalizados y teoremas de estructuras y dinámicas sociales.

Macrosimulation y microsimulación

 Artículos principales: dinámica del sistema y microsimulación

A finales de 1960 y principios de 1970, los científicos sociales utilizan la tecnología de computación cada vez más disponibles para realizar macro simulaciones de procesos de control y retroalimentación en las organizaciones, industrias, ciudades y poblaciones mundiales. Estos modelos utilizan ecuaciones diferenciales para predecir distribuciones de la población como funciones integrales de otros factores sistemáticos tales como control de inventario, el tráfico urbano, la migración, y la transmisión de enfermedades. Aunque las simulaciones de los sistemas sociales recibieron una atención considerable a mediados de la década de 1970 después de que el Club de Roma, los informes publicados que predicen una catástrofe ambiental global basada en las predicciones de las simulaciones de la economía global, las conclusiones inflamatorias también desacreditaron temporalmente el naciente campo, demostrando hasta qué punto resulta de los modelos son altamente sensibles a los supuestos cuantitativos específicos realizados sobre los parámetros del modelo. Como resultado de la creciente escepticismo sobre el empleo de herramientas computacionales para hacer predicciones sobre el comportamiento social y económico a nivel macro, los científicos sociales dirigieron su atención hacia los modelos de micro-simulación para hacer pronósticos y los efectos políticos de estudio mediante el modelado de los cambios globales en el estado de las entidades a nivel individual en lugar de los cambios en la distribución a nivel de población. Sin embargo, estos modelos de micro-simulación no permitían a los individuos interactúan o se adaptan y no estaban destinadas a la investigación teórica básica.

Los autómatas celulares y el modelado basado en agentes

 Artículo principal: autómatas celulares y el modelado basado en agentes

Los años 1970 y 1980 fueron también una época en que los físicos y los matemáticos estaban tratando de modelar y analizar cómo simples unidades componentes, como los átomos, dará lugar a las propiedades globales, tales como propiedades de los materiales complejos a bajas temperaturas, en los materiales magnéticos, y dentro de los flujos turbulentos . Con autómatas celulares, los científicos fueron capaces de especificar los sistemas que consisten en una red de células en las que cada celda sólo se ocupó algunos estados finitos y cambios entre los estados se rigen únicamente por los estados vecinos inmediatos. Junto con los avances en la inteligencia artificial y el poder de microcomputadoras, estos métodos han contribuido al desarrollo de la "teoría del caos" y la "teoría de la complejidad", que, a su vez, un renovado interés en la comprensión de los sistemas físicos y sociales complejos a través de las fronteras disciplinarias. Las organizaciones de investigación dedicados explícitamente al estudio interdisciplinario de la complejidad también se fundaron en esta época: el Instituto de Santa Fe fue fundada en 1984 por científicos basados en el Laboratorio Nacional de Los Alamos y el grupo BACH en la Universidad de Michigan del mismo modo comenzó a mediados de la década de 1980.

Este paradigma autómatas celulares dio lugar a una tercera ola de la simulación social, haciendo hincapié en el modelado basado en agentes. Como micro-simulaciones, estos modelos destacaron diseños de abajo hacia arriba, pero adoptaron cuatro supuestos clave que divergieron de microsimulación: la autonomía, la interdependencia, reglas simples y conducta adaptativa. Modelos basados en agentes se preocupan menos por la exactitud de predicción y en cambio hacen hincapié en el desarrollo teórico. En 1981, el matemático y científico político Robert Axelrod y el biólogo evolutivo WD Hamilton publicaron un trabajo importante en la Ciencia titulada "La evolución de la cooperación", que utiliza un enfoque de modelado basado en agentes para demostrar cómo la cooperación basada en la reciprocidad social puede ser establecido y estabilizado en un prisionero de juego del dilema cuando los agentes siguen reglas simples de su propio interés. Axelrod y Hamilton demostraron que los agentes individuales siguiendo una regla simple juego de cooperar en el primer turno y posteriormente repetir la acción anterior de la pareja fueron capaces de desarrollar "normas" de la cooperación y la sanción en ausencia de construcciones sociológicas canónicas como la demografía, los valores, la religión , y la cultura como condiciones previas o mediadores de la cooperación. A lo largo de la década de 1990, los estudiosos como William Sims Bainbridge, Kathleen Carley, Michael Macy y John Skvoretz desarrollaron modelos basados en multi-agente de la reciprocidad generalizada, el prejuicio, la influencia social, y el procesamiento de información de la organización. En 1999, Nigel Gilbert publicó el primer libro de texto sobre Simulación Social: Simulación para el científico social y estableció su revista más relevante: el Diario de Sociedades artificiales y simulación social.

La minería de datos y análisis de redes sociales

 Artículos principales: la minería y análisis de redes sociales de Datos

Independientemente de la evolución de los modelos computacionales de los sistemas sociales, análisis de redes sociales surgió en la década de 1970 y 1980 de los avances en la teoría de grafos, las estadísticas y los estudios de la estructura social como un método de análisis diferente y se articuló y empleado por los sociólogos como James S. Coleman, Harrison White, Linton Freeman, J. Clyde Mitchell, Mark Granovetter, Ronald Burt, y Barry Wellman. La penetración cada vez mayor de las tecnologías de la informática y las telecomunicaciones a través de los años 1980 y 1990 exigió técnicas analíticas, como el análisis de la red y los modelos multinivel, que podrían escalar a conjuntos de datos cada vez más complejos y grandes. La ola más reciente de la sociología computacional, en lugar de simulaciones que emplean, utiliza el análisis de redes y técnicas estadísticas avanzadas para analizar bases de datos informáticas a gran escala de las delegaciones electrónicas de datos de comportamiento. Los registros electrónicos como el correo electrónico y los registros de mensajes instantáneos, los hipervínculos de la World Wide Web, el uso del teléfono móvil, y la discusión en Usenet permiten a los científicos sociales para observar directamente y analizar el comportamiento social en varios puntos en el tiempo y múltiples niveles de análisis sin las limitaciones de la tradicional métodos empíricos como entrevistas, observación participante, o instrumentos de encuesta. Las mejoras continuas en los algoritmos de aprendizaje automático también han permitido los científicos sociales y los empresarios para utilizar nuevas técnicas para identificar patrones latentes y significativo de la interacción social y la evolución de grandes conjuntos de datos electrónicos.

Análisis de Contenido Computacional

El análisis de contenido ha sido una parte tradicional de las ciencias sociales y los estudios de comunicación desde hace mucho tiempo. La automatización de los análisis de contenido ha permitido una revolución "grandes datos", que tendrá lugar en ese campo, con estudios en las redes sociales y el contenido diario que incluye millones de artículos de noticias. El sesgo de género, la legibilidad, la similitud de contenido, las preferencias del lector, e incluso el estado de ánimo han sido analizadas sobre la base de métodos de minería de texto a través de millones de documentos. En 2008, Yukihiko Yoshida hizo un estudio llamado "Leni Riefenstahl y expresionismo alemán: Investigación en Estudios Visuales culturales con los espacios semánticos trans-disciplinarios de los diccionarios especializados." El estudio se llevó a bases de datos de imágenes etiquetadas con palabras clave connotativo y denotativo y encontró imágenes Riefenstahls tenía las mismas cualidades que las imágenes marcadas "degenerado" en el título de la exposición "Arte Degenerado" en Alemania en 1937.

Revistas y publicaciones académicas

El diario más importante de la disciplina es el Diario de Sociedades artificiales y simulación social.

  • Complejidad Lista Research Journal, de UIUC, IL
  • Grupos de investigación relacionados, de UIUC, IL

Asociaciones, Conferencias y Talleres

  • Asociación Norteamericana para Computacional Ciencias Sociales y Organización
  • ESSA: Simulación Asociación Social Europeo

Programas Académicos, Departamentos y Titulaciones

  • Universidad de Bristol proyecto "Mediapatterns"
  • Carnegie Mellon University, el programa de doctorado en Computación, organizaciones y la sociedad
  • George Mason University

    • Programa de Doctorado en CSS
    • Programa de Maestría en Maestría en Estudios Interdisciplinarios, CSS énfasis

  • Portland State, el programa de doctorado en Ciencia de Sistemas
  • Portland State, programa de Maestría en Ciencia de Sistemas
  • UCD, Programa de Doctorado en Sistemas Complejos y Ciencias Sociales Computacional
  • UCLA, Mención en Sistemas Complejos Humanos
  • UCLA, Mención Biología Computacional y Sistemas
  • Univ. de Michigan, Mención en Sistemas Complejos
  • Lista de Programas de Ciencias de Sistemas, de Portland. Lista de otros programas relacionados a nivel mundial.

Centros e Institutos

  • Centro de Investigación de Sistemas Complejos de la Universidad de Illinois en Urbana-Champaign, IL, EE.UU..
  • Centro de Investigación en Simulación Social de la Universidad de Surrey, Reino Unido.
  • Centro para la Dinámica Social y Complejidad de la Universidad Estatal de Arizona, Tempe, AZ, EE.UU..
  • Centro de Estudios de Sistemas Complejos de la Universidad de Michigan, Ann Arbor, MI, EE.UU..
  • Centro de Redes Complejas y Sistemas de Investigación de la Universidad de Indiana, Bloomington, IN, EE.UU..
  • Dinámica Lab, Geary Institute, University College Dublin, Dublín, Irlanda.
  • Sistemas humanos complejos, en la Universidad de California en Los Ángeles, Los Ángeles, CA, Estados Unidos.
  • Instituto de Ciencias Sociales Cuantitativas de la Universidad de Harvard, Boston, MA, EE.UU..
  • Krasnow Instituto de Estudios Avanzados, George Mason University, Fairfax, VA, EE.UU..

    • Centro de Complejidad Social, George Mason University, Fairfax, VA, EE.UU..

  • Instituto de Santa Fe, Santa Fe, Nuevo México, EE.UU..
  • Centro para la Política de Modelado, Manchester, Reino Unido.
  • Groningen Centro de Estudios de la complejidad social, Groningen, NL.