Número 13, 2021 (1), artículo 6


Fundamentos filosóficos de la tecnología de la información


Jeremías Camino

Estudiante de la Licenciatura en Filosofía por la Universidad Nacional de La Plata (Argentina) y ensayista.




RESUMEN
Este artículo busca expresar los fundamentos filosóficos de la tecnología de la información. Revisa algunos autores reputados, ahonda en la técnica de la información, halla la definición de dato y a la semántica formal como su principio rector. Así, habilita una discusión filosófica fructífera, donde encuentra el fundamento filosófico buscado.


TEMAS
dato · ente · metafísica · ser · técnica de la información · virtualidad



1. Presentación general del tema de este artículo y sus problemas

En las últimas cuatro décadas, como es sabido, se ha instalado lo que se conoce como tecnología de la información. No caben dudas sobre el cambio que esto implicó en la sociedad, no sólo nacional, sino global, y por lo cual, se ha considerado como una revolución. Hablamos, en paralelo a los trabajos de investigadores ya reconocidos, de cambios en la manera de relacionarse, de comunicarse, de construcción del ego, de la economía, de la planificación política (estatal) y empresarial, así como también ha influenciado decisivamente en variadas ciencias (desde la medicina en el campo de la salud, la meteorología en el campo del estudio de la naturaleza, la ingeniería genética en el campo biomolecular, hasta el campo social, por sólo nombrar algunas). Todo el potencial de estos cambios, seguramente, todavía no hayan sido plenamente desarrollados.

Esto ha provocado una ingente cantidad de escritos, que han tematizado esta revolución tecnológica, y cuyos aportes van desde explicaciones y análisis lo más neutrales posibles, pasando por defensas y entusiasmos diversos, hasta llegar a escritos detractores del cambio, algunos de los cuales tienen cierta posición catastrofista. Como toda revolución tecnológica, transcurre cierto tiempo hasta que llega normalización en todo sentido, pero caben destacar dos en particular: A) conceptualizaciones y patrones científicos (es decir, teorías aceptadas al respecto del conocimiento científico específico) y B) explicaciones aceptadas por la comunidad científica más allá de la ciencia particular.

En relación con lo primero, las varias décadas que miden el desarrollo de la ciencia de la información, muestran que tal desarrollo se encuentra repartido entre varias empresas e instituciones estatales, lo cual generó una dispersión en cuanto a las formas de conceptualizar la propia ciencia. Esto es algo bastante habitual en el nacimiento de cualquier ciencia moderna. Uno de los intentos más importantes, y mejor logrado, de generar una unificación de esa dispersión, lo hicieron los autores Ramez Elmasri y Shamkant Navathe, en el año 2006, al publicar Fundamentos de sistemas de bases de datos.

Respecto de las consideraciones sobre esta ciencia más allá de ella, la cuestión se encuentra un poco más dividida; sin embargo, se puede postular con justicia el ampuloso estudio, ya clásico sociológico, de Manuel Castells, La era de la información: economía, sociedad y cultura (compuesto de tres volúmenes), publicado en 1996, y con reediciones sucesivas en el que agregó nuevos aportes, hasta, al menos, el año 2000. También, podemos mencionar a Pierre Lévy con su trabajo ¿Qué es lo virtual? (1999). Y, finalmente, los estudios realizados por el filósofo Byung-Chul Han, publicados, mayormente, durante el primer lustro de la década del 2010.

No obstante, existe una deficiencia en estos trabajos que no puede subsanarse con sus propias explicaciones. Tal deficiencia es la falta de claridad de dos términos principales: virtualidad y dato. Que estos dos elementos son principales, parece algo evidente de suyo: la tecnología de la información genera esencialmente una virtualidad a través de la datificación. Si esos dos elementos están conceptualizados de manera confusa, entonces las diversas comprensiones tienen un basamento inestable, y fallan en sendas cuestiones principales, fundamentales, ¿por qué el dato es lo que es? y ¿qué es lo virtual?, preguntas íntimamente relacionadas.

El trabajo de Elmasri-Navathe sólo presenta una definición científica de dato, porque su intención es fundar correctamente la nueva ciencia, es decir, generar una teoría. Como toda teoría, la de Elmasri-Navathe parte de un conjunto de definiciones que cumplen plenamente su objetivo. Sin embargo, adolecen de dejar incuestionada la razón de esas mismas definiciones. En particular, la definición de dato (y todo el desarrollo que a partir de este y con este se genera) no explica cuál es su relación con el mundo o parcialidad del mundo al que refiere. Ello es importante, porque es decisivo al momento de establecer si la datificación está emparentada con otro proyecto como fue el logicismo, y, además, porque es justamente esa relación un aspecto de la relación entre virtualidad y realidad, que aún no ha sido debidamente comprendida.

Respecto del otro tipo de trabajo, Castells, por ejemplo, no ofrece una definición de virtualidad ni de dato; de sus descripciones y explicaciones, que son bien ilustrativas, se deriva, no obstante, un concepto muy confuso de virtualidad. Por su lado, Pierre Lévy, quien pudo intuir lo que estaba gestándose, sin embargo, elaboró inadecuadamente su concepto de virtualidad: al entender que su rasgo central es la problematicidad, se desprende que la virtualidad es un carácter que existió desde siempre, antes, incluso, de que le diera su origen la técnica de la información. En ninguno caso el dato es tematizado, justamente siendo el elemento, la materia, que estructura y genera la virtualidad, en conjunto con todas las consecuencias que estos autores están presenciando.

Por su lado, Byung-Chul Han sí habla del dato como aquello que continuamente se recopila, como parte de un proceso al que llama, con acierto, dataísmo. Es interesante remarcar que muchas de las características que conlleva la datificación, como la transparencia, la positividad, la aceleración, el mero presente, etc., son todas cualidades propias del dato también. E incluso, ha intuido que la extraña relación que hay entre el dato y el mundo, entre lo virtual y lo real, ya no es una relación de apariencia, sino otra distinta. Empero, no se encuentra una exposición precisa de lo que es un dato, ni tampoco hay un concepto claro de virtualidad.

Con la intención de resolver estas cuestiones, nace este trabajo. Su meta no es construir un fundamento para esa tecnología, entendiendo dicha construcción fundamental como lo fueron los grandes sistemas del pensamiento de los siglos ilustrados y posteriores. Al contrario, la tarea es la búsqueda de los fundamentos por los cuales se origina, y es posible el desarrollo de, la tecnología de la información. Y ello de tal modo que pueda exponerse debidamente lo que es la virtualidad y el dato. Pero, ¿cuál será la manera de hallar tal fundamento? A través de la perspectiva entitativa del asunto. Al respecto, valen las dos siguientes aclaraciones.

Primeramente, decimos perspectiva entitativa para no utilizar deliberadamente la palabra ontología, que ha sido llevada al limbo de las múltiples definiciones. El problema central de esta equivocidad es que ninguna contiene una aclaración de sí misma: esto es, pueden hallarse definiciones de ontología que encubren su raigambre, ya sea idealista, o realista, o relativista, etc.; lo cual es contrario al sentido más propio de ontología: el saber del ente en tanto ente (expresión que ya logra conformar un criterio de investigación suficiente para plantear su unidad).

Segundamente, la perspectiva entitativa se rige por la pregunta por el ente. Pero, no debe creerse que este es un capricho o preconcepción. Por un lado, hay una urgencia en el ámbito del trabajo en que nos situamos, pues, ninguno de los estudios, de las investigaciones o consideraciones, ha podido captar satisfactoriamente el meollo de la cuestión. En general, como veremos, utilizan la noción de realidad, que no resulta clara, ni por sí, ni menos aún en la pretendida contraposición a la virtualidad. Sin embargo, por otro lado, la necesidad de trascender el concepto de realidad, viene siendo exigido, no sólo por su falta de claridad y su poca eficacia en la explicación de este asunto, sino por haber un fundamento y un desarrollo histórico. Estos no pueden ser expuestos sino es en los términos entitativos, es decir, de lo que ocurre con el ente. De seguir con las otras caracterizaciones, la comprensión de la época que comenzó hace décadas, quedará condenada a vagar en una especie de nebulosa, pues ni se sabrá qué es lo real, qué es lo virtual, ni tampoco cómo es que esta ciencia, esta técnica, se imbrica con lo que es el humano y determina, a la vez, su entidad.

Entonces, el trabajo expuesto a continuación recorre dos partes. La primera se desarrolla atendiendo a que la perspectiva que inquiere sobre el ente, no se realiza a partir de preconcepciones o proyectos ontológicos. Al contrario, su meta es la búsqueda del fundamento entitativo en el cual se sustenta la tecnología de la información, y con lo cual comprende que es necesario indagar en su mismo campo. Esto es, en el origen técnico, científico, de dicha tecnología. La primera cuestión que resolver es, entonces, la siguiente: ¿cómo llega a producir sus elementos y conceptos la ciencia o técnica de la información?, pregunta que equivale a esta otra: ¿qué son los datos? Es muy notorio que este es uno de los dos puntos neurálgicos, si se quiere subsanar los problemas de las consideraciones aludidas más arriba. Con este primer objetivo logrado, se obtiene una reordenación de los principios y conceptos principales para que pueda establecerse una discusión filosófica fructífera, desde la cual, incluso, puedan evaluarse aquellas consideraciones. Y aún más, este recorrido técnico logra desmitificar el asunto, es decir, desarticular los mitos que se replican exponencialmente en internet y demás medios de comunicación, y generan expresiones como “el algoritmo que nos somete”, “el imperio oscuro del algoritmo” o “la mente como el predecesor arcaico de Big Data” y formas semejantes.

Sin embargo, habrá de notarse que, habiendo hecho ese desarrollo, aún queda una pregunta más por hacer: ¿por qué es así?, ¿por qué la virtualidad toma ese carácter?, ¿cuál es su fundamento? Se verá que estas preguntas inquieren por el ente sobre la explanación de la técnica de la información. La respuesta a esta cuestión es óntico-ontológica. Como es sabido, esta es la forma que Martín Heidegger dio a su filosofía en la obra Ser y tiempo. Aquí seguimos, en cierta manera, esa perspectiva, con las siguientes aclaraciones. Antes que nada, no seguimos el desarrollo de la analítica existencial (1). El aspecto óntico estará ya preparado por el desarrollo de la primera parte del trabajo, que es el que presentaremos en los próximos apartados, y es estrictamente técnico, científico. El aspecto ontológico nos brinda, por un lado, el sentido fundamental, por el cual, la tecnología de la información aparece como la última expresión acabada del proyecto metafísico moderno y, por otro lado, el sentido histórico, por cuanto es la culminación de la metafísica. Esta perspectiva óntico-ontológica será aquí presentada de modo resumida, para no extralimitar este trabajo. Por lo que habrá de ser publicada una segunda parte.

 

2. El fenómeno tecnológico de partida: la base de datos. Construcción y constitución

Es imposible pensar internet y los computadores sin pensar a la vez la base de datos. En el primer volumen de su obra, Manuel Castells detalla minuciosamente la historia del desarrollo de ambas tecnologías, aportando en todo momento datos empíricos, como él los llama. Sin duda, estos contribuyen a la meta sociológica que pretende con su obra, y es, sin duda, valioso. Pero, de la base de datos como el componente que articula a ambos elementos, más allá de los avances técnico-materiales y sus implementaciones, no hay mayores especificaciones (2). Sin bases de datos, no existiría ni internet ni los computadores. Pero, a la vez, sin la creación de datos no existiría la base de datos, evidentemente.

Siguiendo a Elmasri-Navathe (2007), podemos pensar, de modo laxo, que una base de datos es una colección ordenada de datos. En esta definición, ‘dato’ es, dicho de modo igualmente laxo, una parte seleccionada del mundo. ‘Mundo’ es lo que delimita la actividad humana para la cual el recolectar o recabar algo como un dato es importante. Como ejemplos directrices para esa definición laxa, valgan la contabilidad (antiquísima como los primeros asentamientos humanos) o el archivo de documentos (como podría ser una biblioteca) o el mero registro (como la historia de los anales). Es claro que, según los fines específicos, el proceso para estas actividades antiguas es una recopilación, que se efectúa en atención a una sustracción lógica cuidadosa que valore correctamente lo que debe recopilarse (según su fin) y, a la vez, un ordenamiento adecuado. En cuanto esta actividad es centralizada y mediatizada por un computador, que es lo que ocurre a partir de la segunda mitad del S.XX, intervienen los componentes conocidos como hardware y software. Estos generan una importante modificación, como lo aclaran Elmasri-Navathe, respecto al proceso y la optimización general del mismo que lo diferencia de la “forma tradicional” (3). Sin embargo, lo que a partir de allí ocurre es una modificación principal en lo que es el dato. Para decirlo en pocas palabras, el dato es creado, y no meramente recopilado.

Para entender esto, nos enfocaremos en el software (4), y veremos cómo es efectivamente la construcción y constitución de una base de datos. Tomaremos como guía el trabajo realizado por Ted Codd (para IBM), que desarrolla el cálculo relacional. Aunque existen versiones ampliadas de este mismo sistema, y otras alternativas, su desarrollo nos permitirá entender lo que es esencialmente el dato y la base de datos, sus principios constructivos y entitativos.

En una primera instancia, se seleccionan con precisión las partes del mundo que, la actividad humana, trata de manera específica para la concreción de su fin. Este momento es donde se abstraen cualidades y relaciones. Por ejemplo, en una empresa comercial, una cualidad sería el ser empleado, el ser jefe, el reservorio de materias primas, mientras que una relación sería un proyecto de trabajo, una sección de la empresa, etc. Luego, cada una de aquellas cualidades y relaciones, es adaptada a lo que se conoce como un esquema relacional, que tiene similitudes con una tabla. A estos dos pasos suele llamarse modelización o interpretación. Podría llegar a creerse que esta parte del proceso es idéntica a una captación a través de la lógica de predicados de primer orden. Sin embargo, las diferencias son insalvables.

Un esquema relacional no es un predicado lógico de ningún orden. Cada esquema tiene una estructura compuesta por un conjunto de lo que técnicamente se denominan atributos, que reflejan las cualidades y relaciones seleccionadas. Cada atributo tiene asignado “espacios vacíos” que se rellenan con las instancias o valores, que intentan reflejar las cosas que poseen aquellas cualidades y relaciones seleccionadas, y se les denomina tuplas. Por otro lado, todas las operaciones de combinación de esquemas y de trabajo sobre las instancias, están fundamentadas en el álgebra relacional, el cual opera directa y únicamente con esquemas. El álgebra relacional se compone, según Elmasri-Navathe (2007: 146), de una parte basada en la teoría matemática de conjuntos, y de otra parte desarrollada específicamente para la base de datos. En función del esquema relacional y sus operaciones, son creadas las formas en que se puede interactuar con la base de datos, definidas por la actividad específica. Son las interacciones del usuario, que, en general, se reducen a consultas, modificación, eliminación y agregación, de datos. Entonces, un esquema relacional no es un predicado lógico de ningún orden, porque, además de que las operaciones del álgebra relacional no son estrictamente deducciones lógicas (ni semánticas ni sintácticas), un esquema relacional se diferencia de los predicados lógicos en que no es una función ni tampoco aquello que meramente tiene espacios vacíos.

Ahora bien, la totalidad de este armado (es decir, los esquemas relacionales, las instancias, el álgebra, las interacciones de manipulación y lo que se conoce como descripción general o mapeo de la base de datos) queda definido (=descripto) por un lenguaje apropiado, cuyo nombre técnico es DDL (definition data language), y que la familiaridad del uso y el predominio de una de las variadas formas del lenguaje, precipitó en las siglas SQL (structure quering languaje). A todo este conjunto se le denomina sistema de manejo de base de datos (DBMS, database managment system). Las características mencionadas, junto a otras (algunas de las cuales se refieren en la nota 2) garantizan que la base de datos sea de tipo relacional.

 

3. El concepto de dato y el principio de la semántica formal

A continuación, vamos a centrarnos en algunos aspectos relevantes de la base de datos: el primero, refiere a la interacción y desenvolvimiento de una base de datos instalada y en funcionamiento; el segundo y el tercero están estrechamente vinculados: qué es un dato y por qué obedece la base de datos a la semántica formal.

Observemos el momento en que un usuario interactúa con la base de datos. En inglés, a esta interacción se la llama application, que la literalidad ha traducido al español como aplicación, aunque el significado correcto es solicitud. Para una base de datos, una solicitud es una consulta de alguna información, o un agregado de información, o una modificación. Para satisfacer esta solicitud, está definido un programa, descrito en DDL y fundamentado en las operaciones del álgebra relacional, que consiste en procesar la solicitud y llevar a cabo la operación acorde y precisa para devolver una respuesta. Como puede notarse, este programa sigue una serie de pasos finitos, reglados y fundamentados, que garantizan una respuesta (a excepción de la problemática respuesta null (5)). Por todo lo cual, a tal programa se le llama correctamente algoritmo. Por otro lado, se entiende que, para que una base de datos funcione, no sólo debe cumplir con los objetivos principales para los cuales fue creada (conservación de los datos, ordenación y utilidad competente), sino que viene implícitamente exigida la carga continua de datos y las solicitudes permanentes. Por el momento, retengamos estas apreciaciones como representación de la dinámica de una base de datos, y pasemos a los otros dos puntos.

Para llegar a la entidad del dato, lo mejor es presentar de qué modo no hay que entenderlo, que son las maneras más difundidas o más inmediatas. Un dato no es simplemente un valor (=instancia), ni es solamente uno o todos los esquemas relacionales, como tampoco es sólo la parte interpretada del mundo. Un dato es esencialmente ése conjunto que, como tal, refleja las condiciones que le producen y le sostienen. Esto es decisivamente importante. Un dato se estructura en el esquema relacional que, como vimos, contiene los atributos. Cada atributo en un esquema relacional es, o puede ser, parte de otro esquema relacional con otros atributos, tuplas y valores distintos. El álgebra relacional logra, mediante sus operaciones, el pasaje de un esquema a otro, así como sondear el interior de un esquema entre las múltiples tuplas, todo de manera ordenada y precisa. Por lo cual, es correcto decir que cada esquema contiene todas sus combinaciones posibles y sus restricciones. De esta manera, el dato es una totalidad.

Esta totalidad no se visualiza casi nunca, por la razón útil de que, para las interacciones de usuario, no sólo no se le precisa, sino que, de hacerlo, entorpecería la actividad. Supóngase una situación simple de realizar una solicitud que sólo busca saber un valor (instancia); por ejemplo, que, en la administración pública, se requiera saber la dirección de la casa del individuo con el número de identificación personal tal. Ocurrirá que, el algoritmo, procesará la solicitud de manera que sólo aparezca ése valor al solicitador y oculte todo el resto. Lo visualizado es, ciertamente, un dato, pero también lo es todo lo encubierto. ‘Dato’, pues, es un término de masa (=la parte de un dato es también un dato), y refleja un sistema, entretejido por la abstracción selectiva, la estructuración de tipo relacional, el álgebra relacional y el rellenado de valores (6).

El dato es algo exacto y preciso, perfectamente delimitado, aunque conceptualmente complejo. Por ello mismo es que se cran sistemas de manejo de bases de datos. La noción de manejo está fundamentada en la utilidad para la actividad humana específica, para la que fue creada la base de datos. La noción de sistema, además de la utilidad, del garantizar la organización adecuada y la optimización, remite al carácter de unidad en sí misma que tiene la base de datos. La sistematicidad de la base de datos, no es otra cosa que el reflejo de la totalidad que es el dato. Con tal sistematicidad es asegurado un requerimiento principal de la tecnología de la información, a saber, que la base de datos es correctamente representativa de aquella actividad para la cual fue creada. Sin embargo, este sentido utilitario, eclipsa el sentido entitativo, más importante aún.

En primera instancia, siguiendo el proceso de construcción que hemos hecho hasta ahora, se dirá que, al concentrarse en la parte del mundo con la que trabaja la actividad, son recortadas y abstraídas las notas relevantes. Aquí lo relevante es lo que resulta funcional a la consecución del fin; no busca responder a la pregunta de por qué funciona, sino a esta otra: ¿qué es lo que contribuye a la meta? Así, según su construcción, que la base de datos es correctamente representativa significa que todos los datos son verdaderos, es decir, que no hay datos falsos. Sin embargo, no por ello debemos quedarnos con la idea unidireccional de que el dato y la base de datos dependen entitativamente del mundo, al referirlo inequívocamente. En realidad, hay un sentido de ‘referencia’ al que llamaremos trivial, pues respecta al hecho generalmente admitido de que la base de datos está construida con la finalidad útil de servir a una actividad humana. Pero, no es ése el sentido que buscamos.

Lo que el dato implica, pero a la vez, le determina, es lo que, en el S.XX, se llamó semántica formal. La semántica formal es la que cumple con la condición T elaborada por Alfred Tarski. Nosotros decimos: toda base de datos es tarskiana. Recordaremos, de su famoso artículo “La concepción semántica de la verdad y los fundamentos de la semántica” (en Valdés Villanueva 2005), que su propuesta consiste en la creación de un lenguaje adicional, al que nombra metalenguaje, cuya diferencia del lenguaje objeto es que contiene el término verdad (y posiblemente otros términos semánticos). Así, la condición T enuncia: “la proposición ‘p’ es verdadera, si y solo si p”, donde ‘p’ es el nombre en el metalenguaje para una proposición p que se encuentra en el lenguaje objeto. De este modo, toda proposición es verdadera si se encuentra en el lenguaje objeto. Si trasladamos la terminología tarskiana a la base de datos, el conjunto de los datos conforma el metalenguaje que refiere a la parcialidad del mundo que, así, es el lenguaje objeto. Los datos serán verdaderos si, como nombres, designan aquello que se encuentra en la parcialidad del mundo. Pero, este es el caso, ya que todas cosas, las cualidades y las relaciones del lenguaje objeto figuran en el dato (en tanto ya procesadas): el dato, por sí mismo, no refiere a otra cosa más que a ellas. Ergo, todos los datos son verdaderos, porque todos cumplen con la condición T. El corolario de esta conclusión es que, a diferencia de otros lenguajes tarskianos, no hay en la base de datos ningún ejemplo de falsedad. Las dos únicas maneras en que puede aparecer la falsedad, es mediante una combinación prohibida, o bien mediante el valor null. Pero, la combinación prohibida ya está contemplada en las restricciones, y el valor null ya es un valor, una instancia. Ergo, la falsedad es imposible, lo que implica que, la noción de ‘verdad’, carece de sentido (que, finalmente, es la principal virtud de la propuesta tarskiana).

La demostración del principio de la semántica formal como rector de toda base de datos, puede aún ser insuficiente contra algún resabio de la fuerte noción de referencia. Para expresarlo de modo concluyente, supóngase que, por el contrario, se pretenda sostener que el dato, y la base de datos, dependen referencialmente del mundo. De ello se seguiría que ambos deben significar necesariamente algo del mundo. Pero, ¿en qué sentido decimos que significan? Caben dos alternativas. Una es el significado extensional, como cuando se dice que el concepto perro significa al conjunto de los animales que son perros. Pero, ¿cuál es esa extensión en el dato? La única propuesta viable son los valores o instancias de esquema, como referencia a las cosas que hay en el mundo (p. ej., las personas en el registro de una empresa telefónica, o la mercancía habida en el hangar de un comercio). Pero, descontado el sentido trivial, el valor es una interpretación dentro de un esquema, por lo que es un valor para un esquema. Si el valor refiere o no a un estado de hecho, es irrelevante; el valor importa como parte de la red que se compone, además, del esquema, el álgebra y la interpretación. El dato, en sí, es indiferente a las cosas que hay. Un ejemplo por antonomasia es que puede fabricarse una base de datos de cosas realmente inexistentes, y funcionar perfectamente como una base de datos usual, con sus múltiples interacciones de usuario (este es el fundamento para la existencia de juegos de realidad virtual, e incluso de los chats virtuales de las empresas y los robots que simulan humanos).

El otro sentido de significado es el intensional (del latín intensio), es decir, la connotación. Pero, si con ello se pretende decir que el dato tiene una definición, como, p.ej., el triángulo es una figura de tres ángulos, ¿cuál sería el correlativo en el dato? Un esquema no es la definición de un dato, sino la estructuración de atributos, que el dato posee en tanto tal. Podría objetarse que sí tiene una connotación, en la misma medida en que un concepto puede definirse a partir de sus junciones analíticas: por utilizar un ejemplo clásico, el concepto hombre se define por la combinación del concepto animal y el concepto racional. Pero aquí la conjunción tiene sentido porque pretende corresponder con una cosa real. Si ha de ser considerado en ese aspecto, entonces sólo es en el sentido obvio de su utilidad práctica. En el dato en sí, sólo importa la estructuración para las combinaciones algebraicas: no importa qué se combine, sino que se combine.

Como vemos, lo decisivo es la sistematicidad, pues ella genera una independencia del mundo, y determina la entidad técnica del dato y de la base de datos. En otras palabras, su unidad en sí es su cualidad óntica. Así, decir que la base de datos está regida por la semántica formal, es lo mismo que decir que una base de datos crea el mundo al que refiere, esto es, lo contiene en sí misma. Cuando tal creación es práctica, entonces, la base de datos es una copia debidamente procesada del mundo, pero este es sólo un caso posible (el caso trivial). Dicho de otro modo: el mundo, visto a través de la base de datos, es la propia base de datos.

De todo esto, obtenemos la definición técnica de la virtualidad (virtualis): poder reflejar (potentia) la parcialidad del mundo sin depender de ello. Dato y virtualidad son dos nociones emparentadas, ya que la no dependencia está causada por la sistematicidad del dato, su totalidad: el dato es virtual. Entendemos, pues, que el humano ha sido capaz de crear algo que es independiente de su creador y del mundo, aunque necesite de la atención continua de su creador para subsistir (es decir, sin las solicitudes, el dato carece de sentido) y del mundo para ser creado.

 

4. Discusión con otras nociones de virtualidad y realidad

En función de lo desarrollado, podremos hacer algunas consideraciones sobre el concepto fundamental de virtualidad que algunos estudiosos han realizado. Castells, bajo el apartado “La cultura de la virtualidad real” (capítulo quinto del primer volumen de su obra La era de la información: economía, sociedad y cultura, 2000) recurre a un expediente dudoso: la definición del diccionario. En este encuentra que, la virtualidad, se define como lo que es tal en la práctica, aunque no estrictamente, entendiendo el ‘estrictamente’ como lo que es realmente. Pero, cuál es el sentido de ser realmente, si lo que es por esencia o lo que es efectivamente, no está claro. De una serie de vinculaciones que Castells hace con igualmente poca claridad, podría ensayarse una posible definición suya de virtualidad así: todo aquello que el uso o la manifestación presente de algo no agota. De esta manera, casi nada queda por fuera de la característica de virtualidad. Si no fuese porque su preocupación sociológica se centra en las telecomunicaciones, podría ser enteramente cierta la afirmación de que, para Castells, la virtualidad es anterior a la tecnología o ciencia que le dio origen. Su idea es que la cultura de la “virtualidad real” es un sistema comunicacional que todo lo absorbe.

Como sea, Castells deja indeterminado el sentido de realidad, como ya lo anotamos, pero, consecuentemente, también es indeterminado el de virtualidad. No termina de quedar claro si expresa lo potencial o la miscelánea indiscriminada de cada una de las cosas. Esta relación entre realidad y virtualidad es lo que exige ser repensada a fondo.

Pierre Lévy trata la virtualidad, no como lo que es en potencia (en el sentido escolástico), sino como característicamente problemática. Entretejiendo su obra ¿Qué es lo virtual? (1999) con múltiples ejemplos, entiende que la virtualidad es la problematicidad de lo dado, como una apertura del juego, lo contrario de una solución. La virtualización, sentencia, “hace más fluidas las distinciones instituidas, aumenta el grado de libertad y profundiza un motor vacío. (…) La virtualización es uno de los principales vectores de la creación de realidad” (Lévy 1999: 13). Esta cita resume su idea general; podemos hacer el siguiente razonamiento, paralelo al de su obra, para percibir su alcance total. De su misma definición, la virtualización es un producto humano: no sólo porque el problematizar es algo propiamente humano, sino porque cada acto humano es una creación o producción nueva. Pues, cada acto humano, por nimio que sea, es un hecho nuevo, crea una nueva realidad, que cambia el presente adicionando, mínimamente, ese nuevo hecho. Por lo tanto, toda acción humana es virtual (desde el arte hasta la conducción política). Así, Lévy puede expresar: “La especie humana ha emergido a raíz de tres procesos de virtualización: el desarrollo de los lenguajes, la abundancia de técnicas y la creciente complejidad de las instituciones” (Lévy 1999: 56). De allí, a encontrar el carácter virtual en la totalidad de las cosas (como la religión, la memoria, el conocimiento, la imaginación, etc.) hay un paso superfluo.

Lévy pareciera mostrarse como un optimista de la tecnología de la información. Podría decirse que él piensa que la esencia humana es virtualización. Opone lo real a lo virtual como lo definido a lo problemático, como la identidad frente al volverse otro. Y agrega que lo virtual es complementario de lo real.

Es su noción de virtual como problematicidad lo que lo lleva a establecer tales resultados. Bien podría haberse ahorrado la noción de virtualidad, y declararse, más fácilmente y de modo condescendiente, un pragmatista, como Pierce o Dewey. Pero, no es cierto que virtualidad sea problematicidad. Lévy no presta atención al proceso que lleva a la existencia de lo virtual, que es la producción de un dato. Toda base de datos nace, es verdad, de un problema, esto es, de cómo hacer más efectiva una organización. Pero, el método utilizado y la entidad en que se transforma lo organizado, adquiere un carácter que no está dado por la problematicidad. El entendimiento correcto es el inverso: la problematicidad surge de aquel método y entidad. Dicho de otro modo, el problema se establece a partir de la voluntad de utilizar la informática como forma organizativa y al dato como ente principal. Pero, además, la virtualidad como problema no es algo esencialmente característico de la actividad humana. Siguiendo a su capítulo tercero, podría discutirse el ejemplo del libro, que entiende Lévy como uno de los primeros inventos tecnológicos que generarían virtualidad. Sin embargo, no es cierto que el texto del libro crea un mundo virtual; tampoco es cierto que nace generalmente de algún problema. Diferentemente, el libro crea un mundo imaginario a partir de la intervención destacada de la imaginación del autor en su creación. Pero, imaginario no es virtualidad. La imaginación contiene siempre un elemento de fantasía, una traza corriente de falsedad que señala continuamente, digamos, la verdad, la realidad. Hasta puede decirse que juega con el límite entre uno y otro. Y, justamente eso es lo que no hace la virtualidad: hemos visto que la virtualidad puede ser independiente del mundo, de lo real, y muestra una realidad, pero no como algo diferente, sino como siendo ella misma. La virtualidad como característica propia del dato, es paralela a la desaparición de la verdad y la falsedad (el principio de la semántica formal).

La virtualidad “reemplaza” al mundo, a lo real. La virtualidad, por ello, no problematiza la realidad, porque la “reemplaza”. ¿Qué es lo real y qué es la virtualidad en relación con esto real?, ¿cómo entender esa independencia y ese “reemplazo” de lo real?, son preguntas que deben ser repensadas a fondo, y es lo que a Lévy le ha faltado. Más aún, por cuanto para él la virtualidad es complementaria de lo real. Pero, si fuera así, ¿dónde está la virtualidad?, ¿hay una virtualidad al lado de una realidad y que sólo el humano puede percibir?, ¿será por ello algo interno del humano como el no ser de Sartre?, ¿o será, más bien, que habrá una dualidad real-virtual, como el ente y el vacío de Demócrito?

Anteriormente, hemos entrecomillado “reemplazar”, puesto que no es un término específicamente adecuado. Aparece sólo para acomodarse a la conceptualización de tales autores, en particular a la noción de realidad. Hemos visto que esta no aparece debidamente tematizada, como tampoco lo está la virtualidad. Una y otra parecen entremezclarse; y no puede menos que admitirse que la virtualidad está ahí, tanto como lo está la “realidad”, tanto como la técnica de la información y su subsecuente aplicación tecnológica lo logran. Por ello, se habla, ciertamente, de virtualidad real; empero, la palabra real, de no ser pensada profundamente, y con ella, la virtualidad misma, seguirá persistiendo el error de que ella significa y designa todo lo opuesto a lo virtual, cuando, lo cierto, es que continuamente nos topamos con que no hay una contraposición, sino algo más semejante a una “absorción”, “reemplazo”, o meramente, “equivalencia”.

Hay una expresión muy significativa de Byung-Chul Han al respecto. Él escribió “las imágenes mediáticas de hoy, (...) son simulacros que ya no representan a ningún ‘ente’. (…) Como simulacros sin referencia ellas llevan, por así decirlo, una vida propia” (Byung-Chul 2013: 78). Es cierto que, por mediático, Byung-Chul Han entiende la comunicación de masas, dentro de la cual está situada internet (como un género y su especie), y por lo tanto, está vinculada a los medios de comunicación y formas de expresión cultural y simbólica. No obstante, está lanzada en un capítulo que trata sobre la información, una de cuyas características más sobresalientes es la simulación. Esta cita pertenece al capítulo titulado “La sociedad de la información”. Para Byung-Chul, una sociedad informatizada, es una sociedad determinada por la información, lo que significa que ella es transparente como el vidrio más impoluto, se expone toda inmediatamente, diáfana, sin nada que ocultar pero tampoco nada que descubrir. Y esto significa tanto como que hay una “ausencia de referencia”, diríamos, de entidad. Por eso agrega un poco más adelante: “La sociedad de la transparencia no solo carece de verdad, sino también de apariencia. Ni la verdad ni la apariencia son tan aparentes. Solamente es por completo transparente el vacío” (Byung-Chul 2013: 79). La sociedad de la información está regida por la tecnología de la información, está datificada, es virtual. En la nota número ochenta, del mismo capítulo, dice: “al mundo virtual le falta la resistencia de lo real y la negatividad de lo otro”. Es el principio de la semántica formal.

Si nos detenemos en las ideas principales, veremos su proximidad con el concepto de simulacro de Jean Baudrillard, manifestado casi treinta años antes. Su obra Cultura y simulacro (1978), abre con las siguientes expresiones, que son todo el contenido fundamental de las páginas del libro: “La simulación (...) es la generación por los modelos de algo real sin origen ni realidad: lo hiperreal” (Baudrillard 1978: 5). “En este paso a un espacio cuya curvatura ya no es la de lo real, ni la de la verdad, la era de la simulación se abre, pues, con la liquidación de todos los referentes – peor aún: con su resurrección artificial en los sistemas de signos, (...), en tanto que se ofrece a todos los sistemas de equivalencias, a todas las oposiciones binarias (...)” (Baudrillard 1978: 7). El efecto del simulacro, anunciado unas líneas antes, elimina la diferencia entre “la poesía del mapa y el embrujo del territorio, la magia del concepto y el hechizo de lo real. (...) La metafísica entera desaparece” (Baudrillard 1978: 6). Ciertamente, podría plantearse la discusión sobre las distancias intelectuales que separan a Baudrillard y Byung-Chul, pudiendo retomar, por ejemplo, el primer capítulo de la obra La sociedad del cansancio (2012), donde el segundo se opone al pensamiento inmunológico del primero. No obstante, hay entre ellos, más allá de su distancia temporal, algo en común, que unifica lo negativo que Byung-Chul encuentra en la descripción del poder de Baudrillard, y lo positivo del poder informático. Incluso, eso común podría ser tal que subsista en escritos que han de venir en décadas siguientes; permanencia cuyo rastro llegue hasta los análisis críticos y negativos de la primera mitad del Siglo XX. No es casual que Byung-Chul retome el pensamiento de Walter Benjamin (Byung-Chul 2013: 26), el acertado texto de La obra de arte en la época de su reproductibilidad técnica (2003), al hablar del carácter expositivo, de no ocultamiento, de desaparición de la negatividad. O retome a Adorno, para hablar de la segunda ilustración que conforma el dataísmo (7).

Pero, no es necesario seguir recolectando ejemplos, que, por lo demás, cualquiera puede hacer. Sí es necesario detenerse a pensar en todas esas caracterizaciones que también tiene la datificación, la virtualidad. Se ha de notar que, a veces, la relación entre real y simulacro, realidad y virtualidad, figuran como un signo de una diferenciación ulterior, más profunda. Una diferenciación intuida por tales pensadores y que les posibilita expresar esa nueva época que ya no se muestra de tal otra forma. Esa distinción permite un punto referencial desde el cual es presentada la nueva época, de una manera, digamos, acabada, absolutamente determinante. La diferenciación es el escape del pensador hacia una nueva perspectiva, que, sin embargo, lo mantiene siempre aquí. Para Baudrillard y Byung-Chul, entre una y otra época, desaparece la oposición entre ser y aparecer, ser y fantasía (=imaginación); la nueva época es la desaparición de la metafísica, es la positivización y exposición de la sociedad, y para nosotros es la datificación, la virtualización. En ningún caso, se deja de hablar de ser, y sin embargo, ser y aparecer ya no se oponen: ¿qué significa ser, entonces, si no se opone al aparecer, a la fantasía?, ¿será idéntico enunciar ser y aparecer?, ¿o la indistinción abre una nueva forma de expresión? ¿Se habrá perdido toda manera de hablar sobre el ser?, pero, si así fuese, ¿cómo es que aún pueden los pensadores seguir expresando lo que la época es y fue?, ¿cómo qué debe ser entendida la entidad de la época actual si ya ser es innombrable, incognoscible? Esta retahíla de preguntas no parece ser más que un juego lógico, pues denuncian que el hecho mismo de hablar de lo que es una época, supone e implica que es. Y, sin embargo, ocurre algo singular. Llamamos ente a lo que es: el lugar donde el ser acontece. Pero, según los pensadores, el ente es simulacro, es positividad, y, nosotros agregamos, que el ente es virtual. Entonces, notamos que, lo que propiamente es (el ente), es aquello que ya ni porta el ser ni la apariencia, sino, simplemente, el simulacro, la positividad, la virtualidad. ¿Serán entonces cada una de estas, modos de ser?, pero, ¿cómo entender esta situación en la que un modo de ser, no es del ser, sino otra cosa como simulacro, positividad, virtualidad?

Lo que estamos notando, pues, es que, el ente, al estar determinado por el simulacro, la positividad, la virtualidad, pierde su referencia originaria al ser. Pero, tal como hemos experimentado en el párrafo anterior, ser y ente son siempre dichos. Por lo cual, la inversa es la correcta: el ser se oculta del ente. Tal es el fundamento de esta situación: la ocultación del ser, implica, de algún modo, que el ente pierde su anclaje esencial, quedando en un limbo. El ente como lo liminal es la condición necesaria y suficiente para el simulacro, la positividad y la virtualidad, cuyo efecto principal es, justamente, la e-liminación del ente. Esto es, cada uno de ellos son la expresión del desarraigo del ente.

En su Introducción a la metafísica (1987) Heidegger escribió (8) que la esencia de la metafísica es el estar del ente (fýsis) apuntado hacia (metá) lo que lo hace ser ente y sólo hallar otro ente. En ésta época, pues, la metafísica alcanza su punto más extremo porque su esencia de ocultar al ser mediante el ofrecimiento de otro ente, ahora tapa incluso al ente mismo, que es el lugar donde el ser acaece. La ocultación del ser, pues, no puede ser más extrema, y la metafísica no puede ser más explícita justamente cuando aparece como su propia supresión, justamente cuando desaparece.

Esta pérdida de referencia esencial del ente, que es el ocultamiento del ser, y de lo cual son modos el simulacro, la positividad, la virtualidad, tienen grandes repercusiones sobre el ser humano también. Su propia esencia es el estar remitido al ser, remisión que aquí se pierde, y, por lo tanto, se pierde a sí mismo. Esta época es de tal radicalidad, que el ser humano duda de lo que es propiamente, se pierde a sí mismo y cree encontrar en robots humanoides a un igual. El ser humano está desconsolado y plenamente perdido por sus propias potencias: ha hecho todos los avances tecnológicos, y ha llegado a dominar (=tener una ciencia) de todo lo que le rodea, y no sabe cómo controlarlas, no sabe cómo responsabilizarse de ellas, y, no obstante, sigue desarrollándolas e implementándolas. Ha seguido un plan racional para la organización, libertad y prosperidad mancomunada, y sus efectos son inversos: el caos ambiental que le acecha, el sometimiento cultural-industrial y las continuas crisis económicas que profundizan desigualdades.

Estos son algunos señalamientos visibles del fundamento de la época: el ocultamiento del ser. No obstante, resta por tematizar ontológicamente cómo es que, en función de ello, emerge el simulacro, la positividad y el carácter virtual de la datificación. Es decir, obtener una caracterización precisa entre estos caracteres y el ocultamiento del ser. Pero, será materia de otro trabajo.

 

5. Un ulterior nota: ‘Big Data’

La caracterización técnico-entitativa del dato y de la virtualidad es transportada a un fenómeno reciente, Big Data, cuyo origen y proceso nos proponemos tematizar a continuación.

Al iniciar el siglo XXI, lo que ocurre es una multiplicación enorme de las fuentes de datos junto con su fáctica posibilidad de disponerlos agrupados a través de internet (=interconectividad). Las fuentes de datos se dividen entre bases de datos y las que no son bases de datos. La distinción está marcada según un patrón de precisión y exactitud del dato, esto es, su estructura, que se corresponde con el grado de sistematización de su fuente. Así, siguiendo a Elmasri-Navathe (2007: 784-788), hay datos estructurados, semiestructurados y no estructurados. Pero no-estructurado no significa nunca que no tiene estructura alguna. Hemos visto que, una base de datos relacional, controla todo el proceso de generación y exposición del dato (=sistematización). En cambio, algunas fuentes de datos, como páginas web, permiten una agregación que no se ordena pormenorizadamente, sino el mínimo indispensable para ser útil al fin, como la publicación de un escrito. Así, p. ej., se ha creado el lenguaje HTML (HyperText Markup Language, lenguaje de marcado de hipertexto), porque, partiendo de nociones sencillas, como inicio y finalización de un documento, pueden generarse marcas, que están por encima (hyper) del contenido, y definen (=delimitan) una estructura mínima.

Ejemplos de fuentes de datos son: una central meteorológica, una fábrica integral como Tesla, una fábrica inteligente como Siemens, los comercios de venta en línea, los bancos, los servidores de plataformas, los servidores de hosting, Google, Baidu, Amazon, Alibaba, Facebook, Telegram, los servidores de internet, las compañías de servicio de comunicación, las páginas web, etc. La autora Pérez Marqués los sintetiza a cinco clases, que nos sirve aquí como una guía, aunque la correcta clasificación sólo puede generarse entendiendo correctamente lo que es Big Data, cosa que la autora no hace. Ella los nombra y describe en su primer capítulo (2015) así: Web and Social Media, Machine-to-Machine, Big Transaction Data, Biometrics y Human Generated.

En todos los casos, si hay interacción humana, será mediada por los programas, esto es, algoritmos, con los cuales se consulta o se agrega información, como en cualquier base de datos. Es interesante enfatizar esto para el caso de las redes sociales como Facebook. Facebook es una base de datos, cuyo lenguaje DDL es aquel que el usuario tiene en su pantalla y usa. “Usar” lo entendemos en nuestro trato subjetivo, como “navegar” e insertar contenido. Pero el usar de un usuario es, para una base de datos, un apply to de una application, es decir, una solicitud de información mediada por un algoritmo (un programa). Cuando estamos en la pantalla principal de Facebook, y la movemos hacia abajo, vamos de la publicación de un perfil a otra, es decir, vamos solicitando continuamente datos, que el algoritmo correspondiente procesa y expone en forma de catarata. El que nosotros no tengamos idea de que ello ocurre, es una de las virtudes de Facebook, es decir, el hacer de su interfaz algo amigable y útil, exponiendo lo que tiene que exponer y ocultando lo que debe ser ocultado. Igualmente, cuando agregamos contenido, no hacemos otra cosa más que la solicitud (application) de agregación de datos. Todos los datos que vemos y agregamos, tendrán una forma prediseñada por el DDL de Facebook, esto es, el sistema de datos, para que puedan ser expuestos e ingresados, no sólo correctamente, sino acorde a la estructura y organización general. Así entendemos la razón del nombre popular aplicación. En el mismo sentido, cuando un individuo quiere participar de una red social, lo que hace es otorgarse a sí mismo el permiso para ingresar, creando un usuario, que es amoldarse a sí mismo al diseño del DDL de la red social. Ese diseño (más allá de la mera estética inmediata) es lo sistémico de la base de datos que es Facebook o cualquier otra red social (9).

Por otro lado, notamos que cada fuente de datos es específica según el ámbito en que desarrolla su función útil. Ningún dato, pues, es algo puro en ningún sentido, sino que es necesariamente el resultado de algún tipo de proceso (10).

La multiplicación de fuentes de datos disponibles, que posibilitó la interconexión (Internet), y la multivariada forma de datos (según su estructura) generan, juntas, Big Data. En otras palabras, una base de datos (estructurados), conforme a la actividad de la que es funcional, tiene un flujo de datificación (esto es, transformación del mundo a dato) aproximadamente continuo, delimitado por cantidades que se corresponden, digamos, a la escala fijada por la parcialidad del mundo de interés, y que mantienen el tipo de modelización. Algo semejante, en términos generales, puede decirse de las otras fuentes. Con Big Data se trasciende la especificidad en magnitud y en cualidad (11). Trascender significa aquí traspasar los límites: extralimitarse.

Según su cualidad, un dato fuera de sus límites, es un dato desfijado, es decir, que no está en su entorno propio, pero que no ha perdido su identidad (esto es, que remite, por sí mismo, a su fuente). El dato, en Big Data, es un dato que sistematizar, porque ya es una cosa sistémica, pero en la condición de estar fuera de su propio sistema. Big Data, pues, es indeterminado. Pero esto no significa que es la pura nada, ni tampoco es el mero efecto de la miscelánea estructural. Es indeterminado porque su “materia” es una aglomeración de datos predeterminados (por su origen) que aún no están fijados a un sistema, es decir, que todavía no fueron procesados. Tal proceso sería el siguiente: reconocimiento de su identidad y sustracción de lo que importa específicamente de ella, subsiguiente estructuración ordenada hacia algún tipo de cálculo, y así, disposición y exposición.

Como vemos, está dentro del mismo tipo de técnica que se utiliza y define una base de datos. Es claro, también, que aquí rige la semántica formal, tanto como antes. Pero ahora, y esto es fundamental, la diferencia es que se parte de datos para generar datos. Big Data, por su origen, es independiente del mundo, aunque puede ser un reflejo suyo (virtualis), y es indiferente a la fuente. Big Data, por lo tanto, es la aglomeración masiva e indeterminada de datos, delimitados por el problema fundamental de cómo interpretarlos (12). Big Data es datificación de los datos.



Notas

1. Consideramos, de manera conclusiva, que la analítica existencial es el intento conceptual y moderno de demostrar que el humano es del ser, que es lo que explicita Heidegger en su Carta sobre el humanismo (2006), y demuestra en todos los cursos y obras posteriores al año 1930. Sobre si aún sigue teniendo sentido una analítica existencial, la discusión deberá establecerse según los fundamentos de la época que expondremos en el apartado número cuatro.

2. Tal vez no sea de balde aclarar que internet tiene su antecedente como forma de telecomunicación, y, en ese sentido, se lo debe pensar al lado de la radio, la televisión y la telefonía. Si la radio intercambia ondas radiales de variada frecuencia portadoras de sonido, la televisión electricidad portadora de material audiovisual, la telefonía electricidad portadora de sonidos, internet intercambia electricidad portadora de bits. Pero, prontamente, estos bits son registrados como datos en una base de datos.

3. Elmasri-Navathe establecen (en 2007, página 11) que una base de datos computarizada tiene naturaleza autodescriptiva, posee un aislamiento entre programas y datos, y abstracción de datos, permite que los datos sean vistos a la vez por más de un usuario, y permite la compartición y el procesamiento de “transacciones” multiusuario.

4. Esta decisión radica en que es éste componente con el que mayormente se tiene interacción. No deja de tener igual relevancia el hardware, sobre todo, porque en él están dadas las condiciones materiales, las que presuponen el dominio de los materiales (ciencia) y el proceso de producción capitalista (desde la explotación de la tierra, en lugares como la cordillera de los Andes en Bolivia, hasta la explotación de los trabajadores, desde mineros hasta fabriles), sin los cuales la base de datos sería imposible. Es de esperar que la preponderancia del factor del hardware aumente de concretizarse el computador cuántico.

5. Para una discusión del término, ver Elmasri-Navathe 2007: 57.

6. Así, por ejemplo, lo que se conoce como sistema operativo (de una computadora doméstica, v.g.), no es otra cosa que el DDL, es decir, el lenguaje de consulta, con el que se puede operar con la base de datos. Cada programa habido en tal computadora, es una forma de operar específica con archivos especiales, que el mismo programa crea para alojar en la base de datos y desde la base de datos.

7. “la transparencia es también otra expresión del mito, que el dataísmo promete una falsa claridad” (2014: 90). Esta “segunda ilustración” es el paso de la libertad que muchos creyeron que sobrevendría con internet, durante la década del 90, al encadenamiento productivo, y tan fantásticamente real, de la autoexplotación; del registro total de las cosas para una mayor verdad, a una nivelación simulada (es decir, sin verdad ni falsedad), y peligrosamente controlada.

8. Para un desarrollo completo, ver 1987: 22-35.

9. De este modo, también, despejamos toda la oscuridad y misterio que contiene la frase, pululante por doquier, de “el algoritmo nos controla” (o sus formas similares). Ya hemos visto lo que es un algoritmo. Ahora bien, en el caso de Facebook (y semejantes) éste algoritmo lo que hace es vincular un conjunto de datos, que es el usuario, y sus interacciones (app), con otro conjunto de datos, que son las respuestas solicitadas, de manera tal que la interacción aumente su frecuencia de solicitud. En términos sociológicos, esto es lo mismo que decir que Facebook, en parte, está diseñado (y pretende mejorar en esto) para captar continuamente la atención de sus usuarios, lo que logra utilizando conocimientos de ciencias como el conductismo (Lanier 2018). Por lo demás, el fundamento de esta relación, sólo puede alcanzarse en la medida en que se piensa la base de datos en su rasgo esencialmente técnico.

10. Esto fue bien entendido por Srnicek (2018: 42), en su discusión con otros autores respecto del tipo de trabajo que aparece en este “capitalismo de plataformas”, como él lo llama.

11. En estas dos se fundamentan dos de las tres V, que la bibliografía reconoce como Volumen y Volatilidad. La tercera, Velocidad, se fundamenta en el ritmo de generación y la consecuente disposición en el espacio virtual (lo que se conoce como subir a), lo cual depende de la conectividad.

12.Todos los esfuerzos actuales (y venideros) quedan regidos por esta situación, invariablemente. De allí que los desarrollos principales de nuevas técnicas, en atención a sus características, buscan obtener una interpretación: lenguaje no-SQL, p.ej., es una nueva técnica que se enfoca en el aspecto cualitativo (es decir, para analizar preferentemente datos no estructurados y semiestructurados). Para un acercamiento ver el artículo de Tabares y Hernández (s/f), y el de Sousa y otros (2018).



Bibliografía

Baudrillard, Jean
1978 Cultura y simulacro. Barcelona, Kairós.

Byung Chul, Han
2012 La sociedad del cansancio. Barcelona, Herder.
2013 La sociedad de la transparencia. Barcelona, Herder.
2014 Psicopolítica. Barcelona, Herder.

Castells, Manuel
2000 La era de la información. Economía, sociedad y cultura (tres volúmenes). Madrid, Alianza.

Davidson, Donald
2001 De la verdad y la interpretación. Barcelona, Gedisa.

Elmasri, Ramez (y B. Navathe, Shamkant)
2007 Fundamentos de sistemas de bases de datos. Madrid, Pearson Educación.

Gamut, L. T. F.
2002 Introducción a la lógica. Buenos Aires, Eudeba.

Heidegger, Martín
1987 Introducción a la metafísica. Barcelona, Gedisa.
1994 Conferencias y artículos. Barcelona, Ediciones del Serbal.
2006 Carta sobre el humanismo. Madrid, Alianza.
2014 Ser y tiempo. Madrid, Trotta.

Lanier, Jaron
2018 Diez razones para borrar tus redes sociales de inmediato. Madrid, Debate.

Lévy, Pierre
1999 ¿Qué es lo virtual? Buenos Aires, Paidós.

Mayer-Schönberger, Viktor (y Kenneth Cukier)
2013 Big data. La revolución de los datos masivos. Madrid, Turner.

Morozov, Eugevny
2011 El desengaño de internet, los mitos de la libertad en la red. Barcelona, Destino.

Pérez Marqués, M.
2015 Big data. Técnicas, herramientas y aplicaciones. México D.F., Alfaomega.

Quine, W. V. O.
1968 Palabra y objeto. Barcelona, Labor.
2002 La relatividad ontológica y otros ensayos. Madrid, Tecnos.

Srnicek, Nick
2018 Capitalismo de plataformas. Buenos Aires, Caja Negra.

Sousa, Janailton Lopes (y otros)
2018 “Modelos de representação semântica na era do Big Data”, Brazilian Journal of Information Studies: Research Trends, 12: 34-40.

Tabares, L. F. (y F. J. Hernández)
s/f Big Data analytics: Oportunidades, retos y tendencias. Recuperado de:
https://www.academia.edu/15043636/Big_Data_Analytics_Oportunidades_Retos_y_Tendencias

Valdés Villanueva, Luis Manuel (comp.)
La búsqueda del significado. Madrid, Tecnos, 2005.


Publicado 03 marzo 2021