Volver
TAYARI LAB
22.04.2021

Castigo, deber, realización

por: Nicolás Vallejo

 

Una de las mayores ventajas que tiene el ser humano como especie es su capacidad de llevar a cabo un trabajo organizado, planeado y con miras a objetivos concretos. Al ser una actividad fundamental en el funcionamiento de todas las agrupaciones humanas, ha sido un aspecto trabajado por varios científicos sociales de las más diversas corrientes y perspectivas. En el presente texto quisiera referirme a dos perspectivas clásicas sobre el trabajo, la primera propuesta por Karl Marx y la segunda de ellas, propuesta por Max Weber. 

Karl Marx es ampliamente conocido por la influencia que tuvo en la formulación de las teorías comunistas, así como por ser uno de los pilares de la sociología. Sin el ánimo de referirme a su pensamiento político quiero rescatar una idea general de sus obras: Las condiciones materiales en las que viven las sociedades, determinan su ideología y su política. Sin embargo, como veremos más adelante, no sólo se trata de aspectos tan “grandes” de la sociedad, ya que para Marx todos estos aspectos se ven reflejados en el día a día de los sujetos que las componen. 

Cuando Marx se refiere al trabajo lo entiende como el conjunto de procesos mediante los que se transforma la naturaleza para dar lugar a los bienes que consume la sociedad. Para el alemán, el trabajo tiene juega un papel fundamental en la vida de los sujetos, ya que es a través de él que los humanos conquistan su espacio y el respeto de los demás y hacia sí mismo. Además, y en esto quiero poner el énfasis, este le da al sujeto una motivación al sujeto que lo debe llevar a su autorrealización. Sin embargo, también cree que el trabajador ha sido separado de su labor y por lo tanto pierde el rumbo de su vida, ajustándose así, a los objetivos que otros crean para él (religión, política, economía). 

En cuanto a la teoría de Max Weber, me gustaría referirme a los elementos que postula en su obra La ética protestante y el espíritu del capitalismo. En este texto, Weber hace una descripción de los pilares del pensamiento calvinista y establece una relación entre estos y la generación de riqueza. Para sustentar su idea, Weber hace un paralelo entre dos concepciones sobre el trabajo la “concepción católica” y la “concepción protestante”. Según él, la visión católica se sostiene en la imagen de la expulsión de la humanidad del edén; así pues, el trabajo será entendido como un castigo producto de la desobediencia de Adán y Eva. 

Por otra parte, para el sociólogo alemán, el protestantismo se basa en una visión que concibe al trabajo no como medio, sino casi como un fin en sí mismo. Esta forma de concebirlo tiene que ver con la idea de que la bendición de dios se expresa en la riqueza, en ese orden de ideas, el enriquecimiento es una señal de la salvación eterna. Simplificando -en gran medida- el pensamiento del sociólogo alemán, el trabajo para los católicos es un castigo mientras que para los protestantes es un deber que se verá reflejado en la salvación. 

Como ya lo había mencionado en párrafos anteriores, no es mi intención entrar en discusiones políticas y mucho menos religiosas. Por el contrario, creo que es importante tener las anteriores concepciones en mente a la hora de hacer nuestros análisis en la actualidad. Nuestra cotidianidad está atravesada por la labor que hacemos, lo que nos debería llevar a pensar ¿qué entendemos nosotros sobre nuestro trabajo?

Quisiera plantear unas preguntas para la reflexión de cada uno de los lectores ¿cómo estamos entendiendo el trabajo que hacemos todos los días? ¿para nosotros es un castigo o un deber? ¿sentimos que a través de él me estoy realizando como persona? Considero que no soy la persona adecuada para responder a estas preguntas, aún así, en siguientes entregas me referiré a otras concepciones sobre el tema, ya que al revisar otras formas de entenderlo, cada quién tendrá la posibilidad de obtener sus propias respuestas. 

Nicolás Vallejo

Mensaje de Tayari: 

Este artículo hace parte de un experimento donde invitamos a personas de diferentes disciplinas a escribir sobre ellas y qué conocimiento buscan. Esperamos que este experimento crezca y se convierta en una especie de residencia de escritores. Queremos traer perspectivas frescas, ayudar a conectar ideas y que disfrutéis estas lecturas diferentes.

Volver
Volver
TAYARI LAB
https://unsplash.com/photos/BoTYDPI87m4?utm_source=unsplash&utm_medium=referral&utm_content=creditShareLink

 

Los siglos XVII y XVIII trajeron consigo cambios muy importantes en la forma en la que occidente concebía el mundo. Los avances técnicos y metodológicos del pensamiento europeo, dieron lugar a la ciencia que hoy conocemos. Figuras como Isaac Newton, Rene Descartes, Galileo Galilei, etcétera, se convertirían en el símbolo de una era marcada por el uso de la razón como forma unívoca de entender el mundo. Así mismo, las ideas surgidas en este momento serían una clave importante para el fin de los absolutismos monárquicos y para la independencia de América. 

Con la caída del absolutismo, también aparecía el liberalismo. Esta corriente, que promueve las libertades individuales, así como la libertad de propiedad privada, fue un cimiento muy importante para la constitución de los estados-nación modernos y la división de los poderes. 

Este sistema de pensamiento moderno crea diversos relatos, sin embargo todos tienen algo en común: la idea del individuo omnipotente. Los discursos que han surgido desde los siglos XVI y XVII parecen girar en torno a héroes (o villanos) que, por sí mismos, lideran los cambios, las transformaciones, etcétera. Un ejemplo, es que cuando alguien nos habla en la revolución Francesa, seguramente pensaremos en Jean Jaques Rousseau o cuando nos hablan  de la revolución industrial pensaremos en, Thomas Alva Edison. 

Si bien es cierto, han pasado ya varios siglos desde la aparición de las ideas mencionadas, en el presente continúan teniendo un impacto muy importante en la forma en la que percibimos el mundo. Contemplar un mundo en el que nuestra cotidianidad esté separada de la tecnología, que ha sido producto de la ciencia, parece impensable. De la misma forma, imaginar un mundo sin propiedad privada, parece cada vez un escenario más lejano, especialmente desde la caída del muro de Berlín. 

Esta forma de pensar, basada en la competencia individual conllevó a un resquebrajamiento de las redes comunitarias que se basan en el bienestar de la comunidad, para privilegiar el desarrollo individual incentivado por las ganancias económicas. Sin embargo, con el pasar de los días del siglo XXI, esta idea de los individuos creando por sí solos ha ido menguando a un paso lento, pero seguro. Los grandes libros que se refieran al pensamiento de un físico, un matemático, un filósofo o un sociólogo están lentamente siendo remplazados por revistas científicas que contiene el pensamiento de varios de ellos. El discurso del “héroe”, está empezando a ser remplazado por el relato de las agencias, centros de investigación, compañías y empresas. 

En este momento en el que el individuo empieza a dejar de estar en el centro nuevamente, parecería que existe una esperanza para la reconstrucción de los lazos de solidaridad y de cooperación que se habían ido quebrando a lo largo de los últimos siglos. De cualquier manera, este escenario está lejos de ser ideal, por lo que me surgen las siguientes preguntas ¿cómo se puede aprovechar este nuevo comportamiento de la sociedad para la reconstitución de los lazos comunitarios? ¿cómo evitar que los sujetos se conviertan en simples recursos? 

Siguiendo la línea de anteriores artículos, considero que la respuesta se encuentra en el pensamiento comunitario. Es importante preocuparse por las necesidades de las personas que nos rodean, ya que desde el conocimiento de sus circunstancias se puede pensar en la generación de redes de cooperación que permitan el beneficio de la sociedad en general. A modo personal, considero que en este momento la sociedad occidental camina por una delgada línea. Este es el momento para recuperar la consciencia de comunidad y de vencer la soledad moral a la que se refería Erich Fromm, que nace del individualismo moderno y que nos arrastra a los totalitarismos ciegos. 

Mensaje de Tayari: 

Este artículo hace parte de un experimento donde invitamos a personas de diferentes disciplinas a escribir sobre ellas y qué conocimiento buscan. Esperamos que este experimento crezca y se convierta en una especie de residencia de escritores. Queremos traer perspectivas frescas, ayudar a conectar ideas y que disfrutéis estas lecturas diferentes.

Volver
Volver
TAYARI LAB
12.03.2021

Fair and square

por: Angela Cardoso
probabilidades metricas

The printed number and the rise of the statistical program 

This is an essay I wrote for the module History of Science in January  2021.

Introduction  

Engaging philosophically is something I consider a social endeavour though it doesn’t  exclude periods of individual solitude and a fair amount of despair. In my case, students and  teachers from another country lived something that triggered me. Teachers were deprived of  one of their traditional responsibilities, that of assessing students, and students, who once  had a person to address themselves regarding their grades, now had a black box, which, at  best, would “reply” is just executing a set of rules.  

It’s May 2020, and due to COVID-19 pandemic, it was announced students in England  wouldn’t sit for GCSEs, AS and A levels exams (see note 1). As the exams were cancelled, the question  of how to evaluate and grade students popped up. The Office of Qualifications and  Examinations Regulation (Ofqual), whose mission is to “maintain standards and confidence  in qualifications in England”, proposed to address the situation through the use of an  algorithm.  

Seeing pictures of students protesting and holding cards “Teachers know my potential,  algorithm does not” or “my grades, not my postcode” in BBC (A-levels and GCSEs, 2020)  made me wonder why choosing an algorithm to decide student’s grades was better suited  than teachers’ judgement. And what was this statistical model made of anyway? According  to Ofqual, teachers were asked to provide data for each student and for every subject . It  included an estimated grade, taking into consideration previous data, such as mock-tests  and class assignments, and a ranking comparing every student at the school within the  same estimated grade. One of the assumptions was grades attributed by the algorithm  would be consistent with schools and students’ previous performance, even without exams  taking place. The organisation affirmed the statistical model aimed at maintaining the  standards both between centres and over time in order to prevent grade inflation, but  alerted to the fact there could be issues for students whose grades fall outside the pattern of  results in that centre in recent years. Another organisation, the Royal Statistical Society  (RSS), whose motto is Data | Evidence | Decisions, alerted “Ofqual to the statistical issues  relating to exam grading and assessment in 2020” (Witherspoon, email to Ofqual, 2020,  April 9) and proposed to help by bringing in an advisory expert group to the discussion. The  grade results provided by the algorithm provoked protests all over the country and escalated up to the point of calling the Prime Minister to intervene (Adams, Stewart, 2020,  August 16).  

This situation illustrates well our condition of statistical subjects, where many parts of our  lives are under the influence of a probabilistic and statistical umbrella, even if these  inferences and judgements may be wrong (Wissenschaftskolleg zu Berlin, 2011, January 6).  This essay seemed an adequate opportunity to expand reflection on the subject, therefore I  will be covering what were some of the contingencies in the origin and development of  probabilities and how they became part of the way we think, hence of who we are.  Untangling this narrative is like analysing a plot: what were the conditions in place that  created a nutritious ground to these ideas? Who were the characters who fed these ideas  and how were they related? Which moments, either of eruption or apparent stagnation,  were important to it becoming a thing? It’s not my aspiration to expose in a small essay  what others have done so brilliantly in a journey of a lifetime but I will adventure on referring  to some of the most relevant moments which allow us to understand the students’  probabilistic and statistical situation.  

This essay has three parts. First, I will start by explaining the origins of classical probability  in a deterministic conception and its rise as a new mathematical program and new  rationality. Second, I will move towards the enumeration of people and their habits and how  it changed the idea of determinism, eroding it. Here I will focus on the law of large numbers,  normal distribution and the birth of the average man. Finally I will conclude by summarising  the main points and suggesting further research to address our probabilistic and statistical  thinking.  

The Mechanics of the heavens and order on Earth  

In the first half of the seventeenth century, natural philosophers such as Galileo thought  nature had causes which were determined by God and that they could be expressed  through the language of mathematics. Then, in order to be able to describe nature  mathematically, it was first necessary to understand its causes ( Gigerenzer, Swijtink,  Porter, Daston, Beaty, & Kruger, 1989, p. 11). It’s in this rational context that “Philosophiæ  Naturalis Principia Mathematica” by Sir Isaac Newton thrives as the first unified program of  modern physics, bringing together the disciplines of astronomy, physics and mathematics.  Newton helped to create the idea of an universe where there was a single force, universal  gravitation, determining the motion of objects: from planets to falling objects everything was  predetermined. Universal gravitation enabled retrodictions and predictions of the positions  of the planets, considering its present configuration.  

The devising of Newton’s theory had an intimate connection on how probabilities started to  be understood. Traditionally seen as a qualitative measure of an opinion backed by  authority, probability slowly became a quantitative measure of certainty. At the core of this  change is the intersection of a new rationality which was leaving behind the traditional idea  of certainty with the desire of applying mathematics to new areas of experience.  ( Gigerenzer, Swijtink, Porter, Daston, Beaty, & Kruger, 1989, p. 1). Without the  entanglement between both, none of them alone would have been enough to advance  probabilities as we know them today (Hacking,1990).  

In the classical period of probabilities, from circa 1660 to 1840, there were three  undiscerning ways to which mathematicians referred to as probabilities.  

The first was about equal possibilities based on physical symmetry which was applied to  gambling scenarios. For instance, the work of Blaise Pascal in understanding the  relationship between risks and uncertain pay-off is an example of this new rationality where  it was “not enough to consider how good or bad an outcome is in itself, but also the  likelihood that it will come to pass (Arnauld and Nicole, [1662] 1965, pp. 352-3 in  Gigerenzer et al., 1989 p. 5).  

The second way referred to probabilities as observed frequencies of events, through analysing  different kinds of data collected since the sixteenth century. The permeation of the  probabilities outside the realm of gambling can be seen by the hand of the Dutch Christiaan  Huygens who continued Pascal’s work and applied probabilities to the study of equitable  contracts. Chance and risk as random events were at the heart of the dealings in the  Amsterdam Stock Exchange where financing marine ventures required the need to to  determine what needed to be paid in exchange contracts, in order to guarantee equity and  justice. Another of its applications was in calculating the price of annuities, which evolved to  become life insurance (Gigerenzer et al., 1989 p. 6).  

Finally, the third concept of probabilities is connected to the notion of sufficient knowledge and  it arose from analysing procedures in courtrooms and miracles. If order in nature was  universal, invariable and eternal and a sign of divine providence, then the question on how  to interpret miracles was yet to be answered. One of the works which contributed to the  development of this idea was David Hume’s essay on miracles. He defended that a miracle  was less probable than a naturalistic explanation, raising the notion of intrinsic evidence;  and rejected the evidence arising from testimony, considered as extrinsic evidence on past events as an inference to predict future ones. It is the connection of intrinsic and extrinsic  evidence that characterises probabilities as models of causation and degrees of subjective  certainty or belief (Gigerenzer et al., 1989 p. 9, p.28).  

These three interpretations regarding probabilities led to a distinction a posteriori between  objective and subjective probabilities. Still, this distinction shouldn’t be seen as a binary  opposition though but rather as a complex web weaved by classical probabilists who also  used both meanings randomly. For example, Pierre-Simon Laplace was an astronomer who  used both objective and subjective elements in his theories. Moreover, Laplace was also  one of the founders of the classical theory of probability and an avid supporter of  determinism to allow the control and domination of nature which would be possible under  the condition we have sufficient knowledge. This conception of a predetermined universe  carved the way for probability to rise as a new mathematical program and a new rationality  where probability was then to be understood a state of mind relative to human knowledge  rather than a state of the physical world.  

Circa 1840 A.A. Cournot wrote “the double sense of probability, which at once refers to a  certain measure of our knowledge”, this is subjective probabilities, “and also to a measure  of the possibility of things independently of the knowledge we have of them", this is the  equal possibilities based on physician symmetry and frequencies. (Daston, 2007). Hacking  distinguishes probabilities as modelling and as inference , when referring to objective and  subjective probabilities respectively (Hacking, 1990 p. 98).  

Though it seemed mathematics could then be applied to other domains of experience, there  was a catch in the program: the variability found in data represented a problem. Classical  probabilists faced huge criticisms and the program was discredited (Wissenschaftskolleg zu  Berlin, 2011, January 6). What initially survived was the objective conception of probability  applied in gambling and actuarial problems. To successfully push the program forward and  connect both the objective and subjective senses of probability two more elements were  needed: the first element required probability as a measure of knowledge or state of mind  had to be shown in practice, meaning it needed to attract people who were motivated to find  in society the equivalent of Newton’s gravitational universal law; and the second element  was evidence needed to be quantified for which the availability of printed numbers was key.  

The printed number and the rise of statistics  

The idea of gathering numbers about populations can be traced back to the eighteenth  century when government officials such as Leibniz, the “philosophical godfather of Prussian  official statistics'' (Hacking, 1990 p. 18), who saw the potential of a central office estimating  population and their behaviour to serve different administrations such as taxation and  military service. Nevertheless, a universal statistical law of human nature didn’t emerge in  Prussia but in England and France in government offices.  

This vision was shaped in the beginning of the nineteenth century. By this time, there was a  solid printing network in place and an increase of the capacity to print propelled by the  Industrial Revolution. This made the appearance of an avalanche of printed numbers  technically possible, developed and implemented by the rising modern states and their new  bureaux, which aimed at creating stability and avoiding unbalances to peace after the  turbulence of the Napoleonic era.  

The new bureaucratic state institutions were instrumental to gather and diffuse the  avalanche of numbers and it engendered the need of creating categories where individuals  could fall into. The idea was to show that in practice society would follow into the same  universal umbrella of predictability and control. In order to do so, everything was  enumerated, from birth, deaths, average date of marriage, voting predisposition and, in  particular, wrongdoings, such as suicides (Hacking, 1990, p. 64). It is in the wrongdoings  that statistics finds its social mission, the one of improving society by applying reason. 

One of the most relevant statistical realisations is the law of large numbers. It is a part of a  theorem refined and presented by Siméon Denis Poisson in 1837 which expresses the  stability of mass phenomena. It acknowledged there were regularities in the societies and  this became a fact which “didn’t need” to be empirically checked because it was how things  were, the collected numbers showed a frequency in the many events such as the number of  deaths and births. Though there were many sceptics to Poisson’s theorem, the proposition  about the law of large numbers had the soil to flourish for some decades once the stability  of relative frequencies was associated with a sign of divinity. Statistical law was now  admitted in social affairs (Hacking, 1990, p. 104).  

Nevertheless, the regularities in wrongdoings such as crime and suicide were difficult to  understand in a deterministic universe, so the law of large numbers was later discarded as  

explanation. The question of what could be the equivalent of the laws of regularity which  govern the universe to the ones that govern individuals remained opened.  

Maxwell, a scientist in the field of mathematics physics and Quetelet, an astronomer and  statistician, had a different vision regarding what determinism was and defended that many  of the irregularities found by bureaucrats were also found in physics such as in the  statistical laws of thermodynamics. Quetelet thought it wasn’t necessary to know everything  about all the properties in absolute detail to address the puzzle of societal wrongdoings and  favoured society and not the individual as the basis of social statistics. He introduced the  curve of normal distribution at a societal level, which was already used in physics. The  curve of normal distribution, described observational errors in astronomy and is composed  by the mean and measure of dispersion. The dispersion is very relevant because it  determines if an average is or not reliable. When it is, it is called a normal distribution and is  represented by what we know today as a Bell Curve. If the universe also had its own errors,  then it was only normal society had theirs too, determinism was not at stake.  

Underlying this notion is the concept of “normality”. Quetelet, by accepting deviations and  errors present in the universe and society, gave birth to the notion of the average man  (Gigerenzer et al., 1989 p. 53). The average man became an objective notion of “a” man  against whom all others can be compared to and judge if they are average or a deviation.  The Bell curve or normal distribution is still used in social matters. For instance, the  intelligence quotient (IQ) remains one of the most controversial products of statistical  reasoning expressed through a Bell curve. Used to measure intelligence, it conceives it in a  universal and supposedly neutral way.  

Moreover, the law of large numbers and normal distributions are present in the students’  exams case portrayed in the introduction. Ofqual’s algorithm was applied because it was  considered there was sufficient data which provided evidence about the stability and  regularity in centres’ performance in the past years and it also had a way to compare  students to each other through distribution of their grades. Ofqual also expected some  students whose grades would fall out of the patterns or the normal distribution curve, but  considered it wouldn’t compromise the large scale average and predictability.  

On that account, the variations found in astronomers' observations had consequences: if  some variability was found in the universe, then some chance and randomness needed to  be readmitted both in physics and society. Though variability didn’t put an end to  determinism it led to an erosion, what Ian Hacking defines as taming chance. Nevertheless,  the laws of nature differ from those of society: while elements of the universe don’t have an  ambition of being considered normal or constant, humans do look forward to being seen as such, meaning we will try to adapt to what the rules are, which will consequently affect what  is considered to be “the average man”. Despite the initial failure of the probabilistic program,  we became statistical subjects thriving to be considered normal people. This situation was  only possible due to the avalanche of numbers which helped create the statistical laws of  societies. Yet, without the belief that there was an equivalent of a newtonian-laplacian  universe in society, the statistical laws might have never been inferred in those numbers  (Hacking, 1990).  

Conclusion  

We have seen how probabilities and statistics are connected with determinism and how  they changed through the course of the classical period of probabilities.  

The classical probabilities set in motion a new mathematical program and a new conception  of how to think about certainty, trying to exclude chance. The regularity of the universe was  desired on earth, to allow insights, predictions and control in all spheres of human life.  Though the program had many sceptics, probabilities and statistics carved its way into the  core of our rationality and are engraved in social sciences and in our rationality.  Probabilities were a huge success at many levels. For instance, they are an epistemological  success because when we think about evidence, data, experiments and credibility we do it  in probabilistic terms; it is a success in logic due to inference theory. As the history of  probabilities and statistics is an ongoing endeavour, further considerations may be added  for future research. I suggest, for example, if a plausible comparison can be made between  the relevance of printed number in the nineteenth century and the relevance of data points  in contemporary society for the purpose of determining our behaviour; and understanding if  algorithms are the most recent techno-deterministic flavour of our society, governing all  spheres of our life from whom we may vote, whom we may be attracted to or what are we  going to buy. These questions are valid because they seem supported by the fact that  despite the evidence of some level of indeterminism in the universe brought in by other  theories in physics, such as quantum theory, determinism remained mostly unshaken.  

Note 1:

GSE, AL are the UK equivalent to school-leaving or university entrance examinations in different  subjects. GSE stands for General Certificate of Secondary Education, AS for Advanced Subsidiary level  and A is a combination of advanced levels.  

References  

Adams, R., Stewart, H. (2020, August 16). The Guardian. Retrieved from https:// www.theguardian.com/education/2020/aug/16/boris-johnson-urged-to-intervene-as-exam results-crisis-grows 

A-levels and GCSEs: How did the exam algorithm work? (2020, August 20). BBC.  Retrieved from https://www.bbc.com/news/explainers-53807730 

A-levels and GCSEs: U-turn as teacher estimates to be used for exam results. (2020, August  17). BBC. Retrieved from https://www.bbc.com/news/uk-53810655 

Coughlan, S. (2020, August 14). Why did the A-level algorithm say no? BBC. https:// www.bbc.com/news/education-53787203  

Daston, L. (2007). The History of Emergences. Isis, 98(4), 801-808. Retrieved from https:// doi.org/10.1086/529273 

Gigerenzer, G., Swijtink, Z., Porter, T., Daston, L., Beatty, J., & Kruger, L. (1989). The Empire of  Chance: How Probability Changed Science and Everyday Life (Ideas in Context). Cambridge:  Cambridge University Press. doi:10.1017/CBO9780511720482  

Hacking, I. (1990). The Taming of Chance (Ideas in Context). Cambridge: Cambridge University  Press. doi:10.1017/CBO9780511819766  

Kline, R. R. (2001). Technological determinism. In N. J. Smelser, & P. B. Baltes (Eds.),  International encyclopedia of the social & behavioral sciences (pp. 15495-15498). Oxford:  Pergamon. doi:https://doi.org/10.1016/B0-08-043076-7/03167-3 Retrieved from https:// www.sciencedirect.com/science/article/pii/B0080430767031673  

Lemov, R. (2017). Archives-of-Self: The Vicissitudes of Time and Self in a Technologically  Determinist Future. In L. Daston (Ed.), Science in the Archives: Pasts, presents, futures (pp.  247-270). The Chicago University Press: Chicago and London.  

Ofqual about us. (n.d.) Retrieved from https://www.gov.uk/government/organisations/ofqual/ about 

Social Science Research Council. (2019, February 12). 2019 SSRC Fellow Lecture: Lorraine  Daston [Video]. YouTube. https://www.youtube.com/watch?v=6xErFnyjMAA 

Witherspoon, S. (2020, April 9). [Email to Ofqual]. RSS alerts Ofqual to the statistical issues  relating to exam grading and assessment in 2020. Royal Statistical Society. Retrieved from  https://rss.org.uk/RSS/media/File-library/News/2020/RSS_Ofqual_30042020_SFW_final.pdf 

Wissenschaftskolleg zu Berlin. (2011, January 6). Lorraine Daston – The Rule of Rules, or How  Reason Became Rationality [Video]. Vimeo. https://vimeo.com/18497646. 

Volver
Volver
TAYARI LAB
02.03.2021

Ética en la etnografía

por: Nicolás Vallejo
Photo by Jakob Owens on Unsplash

 

Estamos haciendo un experimento: invitar a gente de diferentes disciplinas a escribir sobre ellas y qué conocimiento buscan. Esperamos que este experimento crezca y se convierta en una especie de residencia de escritores. Queremos traer perspectivas frescas, ayudar a conectar ideas y que disfrutéis estas lecturas diferentes.
Nuestro primer residente es Nicolás, un antropólogo, y este es ya su tercer post:

La etnografía es una de las metodologías cualitativas más potentes, ya que permite total cercanía con el objeto de estudio.

Esto mismo, plantea una serie de interrogantes sobre el proceder ético que debe tener cualquier profesional que utilice este método. Es por esto, que en este texto me propongo a discutir sobre los principios éticos que dan lugar a las formas de usar esta metodología, así como los comportamientos que deben ser evitados.

Un buen punto de partida para pensar en los comportamientos que deben ser evitados al hacer etnografía, es la teoría del antropólogo Eduardo Restrepo. Él identifica tres formas poco éticas de usar esta metodología que se traducen en tres tipos de mal etnógrafo.

En primer lugar, el Etnógrafo asaltante, se caracteriza por sólo pensar en su investigación, en detrimento de las personas con las que la lleva a cabo. Esto ocurre porque este tipo de investigadores no ve a los sujetos con los que trabaja, sino como fuentes de información. El segundo tipo, muy parecido al primero, es el Etnógrafo extractivista. Este último, también percibe a los sujetos con los que trabaja como medios, por lo que busca sacar la información a como de lugar y lo más rápidamente posible. El tercer tipo de investigador que identifica Restrepo, es el Etnógrafo indiferente el cual siempre está pensando en problemas desconectados del contexto de sus sujetos de estudio y sólo busca información para sustentar teorías que sólo son de su beneficio personal.

Los patrones descritos anteriormente, no sólo se pueden encontrar en la etnografía, sino en todos los tipos de metodología y tienen un rasgo en común: La percepción de las personas como medios y no como fines en sí mismos. De la mano de mis anteriores artículos en este medio, me gustaría recalcar nuevamente en la importancia que tiene el funcionamiento en comunidad en cualquier tipo de grupo social. En ese orden de ideas, la labor de un etnógrafo debe pasar por entender cuál es el contexto del grupo a estudiar, cuáles son sus necesidades y su rol con respecto a otros grupos con los que interactúa o grupos más grandes que lo engloban. Además, en condiciones normales, es ideal que la labor etnográfica represente un beneficio para la comunidad que está siendo investigada.

Este último punto me lleva a postular algunos principios éticos que deben regir cualquier investigación etnográfica. Para empezar, se encuentra el principio de beneficencia, ya mencionado en el párrafo anterior, que consiste en hacer el bien al otro (en este caso, las personas que estoy estudiando). También se debe tener en cuenta el principio de no maleficencia, el cual consiste en evitar cualquier daño o perjuicio hacia las personas que se están investigando. Por último, se encuentra el principio de autonomía. En muchos casos el investigador se puede ver sometido a presiones de terceros, incluso de las personas, instituciones o entidades que financien su investigación; en todo caso, el etnógrafo debe mantenerse fiel a los resultados arrojados por su estudio. Estos principios no sólo se deben tener en cuenta a la hora de llevar a cabo el trabajo de campo, sino desde el planteamiento de la investigación, ya que en este punto se pueden cometer o evitar errores que podrían causar un sinnúmero de dilemas adicionales.

La labor del etnógrafo es una tarea que lo llevará a enfrentarse a dilemas morales a menudo. Es por esto, que siempre se deben tener en cuenta unas pautas mínimas que sirvan de guía para enfrentarse a la infinidad de circunstancias que se pueden presentar durante el proceso investigativo. Sin embargo, la contingencia propia de cualquier trabajo de campo, termina obligando al investigador a confiar en sus habilidades, su pericia y su experiencia. El equilibro entre conocimiento del oficio, entendimiento del contexto y principios éticos sólidos, son claves de gran importancia en la maestría de quiénes se dedican a realizar etnografías.

Nicolás Vallejo

¿Y qué hacemos en la consultoría?

Por paralelismo, ¿Podríamos establecer los perfiles de consultor asaltante, consultor extractivista, y consultor indiferente? Sin duda que los hemos visto en las diferentes transformaciones ágiles que hemos participado, y quién sabe, si alguna vez incluso nosotros hemos adoptado algunos de esos roles.

El consultor asaltante y extractivista es un caso muy común, dónde se centra en utilizar a las personas como medio para poder hacer su trabajo, sin darse cuenta o pensar además en el impacto de la consultoría en el futuro de esas personas. Consultoría de PowerPoint que se centra en la extracción y análisis para después dar por cumplida su misión sin mirar atrás en el impacto producido.

El consultor indiferente es un pecado más venial. Qué placer investigar modelos, hacer teorías, sustentar razonamientos previamente planteados en nuestra cabeza sin datos. Si esto no se sostiene en el tiempo puede ser hasta una fuente de creatividad, de perspectivas, pero corremos el riesgo de alejarnos de la realidad y no tener impacto en la transformación organizacional.

Al aprender y tomar conciencia de otras disciplinas, podemos reflexionar sobre el componente ético y de experiencia que debemos reforzar en cualquier colaboración de consultoría con nuestro clientes.

Angela & Joserra

Volver
Volver
TAYARI LAB
15.02.2021

¿Para qué el poder?

por: Nicolás Vallejo
otras direcciones del poder

 

Estamos haciendo un experimento: invitar a gente de diferentes disciplinas a escribir sobre ellas y qué conocimiento buscan. Esperamos que este experimento crezca y se convierta en una especie de residencia de escritores. Queremos traer perspectivas frescas, ayudar a conectar ideas y que disfrutéis estas lecturas diferentes.
Nuestro primer residente es Nicolás, un antropólogo, y este es su segundo post:

Cuando se nos pregunta por el liderazgo, es común que relacionemos la pregunta con las figuras del poder político o de las cúpulas directivas de grandes empresas.

Esto se debe, en gran medida, a que en nuestro entorno (refiriéndome a la sociedad occidental), estas son las personas encargadas de tomar decisiones. También es cierto que, no sin mérito, son estas personas quiénes encarnan una visión de éxito y tienden a ser admiradas por un gran segmento de la población. Sin embargo, esta visión del liderazgo estás sesgada por nuestras propias dinámicas, por lo que cabe preguntarse ¿qué aspectos son importantes para los líderes en poblaciones que tienen una diferente visión del mundo?

Para poder dar respuesta a la pregunta que he planteado en el párrafo anterior, muchas personas se remitirían a los grandes casos de éxito “no occidentales”, seguramente pensarían en China y en otros países orientales, grandes ejemplos del crecimiento económico. Por mi parte, yo prefiero abordar la pregunta, pensando en pueblos que históricamente no han sido reconocidas por los estándares occidentales como un ejemplo. En ese orden de ideas, en los próximos párrafos, me referiré a dos comunidades indígenas latinoamericanas, los Tzotziles de México y los Nasa de Colombia.

En el caso de los Tzotziles, su concepción de liderazgo ser podría resumir en la frase “mandar obedeciendo”. Para este pueblo indígena, el liderazgo tiene una estrecha relación con la responsabilidad. Quién se encuentra en el lugar de líder o lideresa, tiene sobre sus hombros la responsabilidad de actuar en servicio de las necesidades de su comunidad, no sólo en términos políticos y económicos, sino también morales. Esto implica que la persona encargada de liderar esté en un constante proceso de comunicación con cada miembro de la comunidad, ya que esta es la única forma en la que puede hacerse consciente de manera efectiva, de las necesidades de sus “hermanos”.

Teniendo en cuenta lo anterior, me parece importante señalar otro aspecto del liderazgo de los Tzotziles. La persona que ejerce el liderazgo, debe estar familiarizada con las tareas que requiere su comunidad en el día a día. Este es un rasgo que se replica a lo largo de muchos pueblos indígenas a lo largo y ancho de Latinoamérica; el líder “manda” desde el conocimiento de las habilidades, destrezas, tiempos y esfuerzos que requiere cada tarea.

Por otra parte, se encuentra el pueblo Nasa del sur de Colombia. Para ellos, la vida se sostiene sobre tres pilares que se interconectan entre sí, Palabra, Acción y Espíritu de Comunidad. A continuación enunciaré un proverbio de su tradición que resume la forma en la que entienden la vida en sociedad:

            La palabra sin la acción, está vacía.

            La acción sin la palabra, está ciega.

            La acción y la palabra, sin el espíritu de comunidad, están muertas.

El líder, Nasa, se caracteriza por una alta capacidad comunicativa, la cual le permite mediar en los conflictos comunitarios y resolverlos a través del diálogo. Sin embargo, su palabra siempre está acompañada de actos concretos. Si el sujeto se compromete con algo, lo lleva a cabo. También se debe tener en cuenta que el líder o lideresa nunca toman decisiones arbitrarias; éstas siempre deben ser explicadas a la comunidad en medio de asambleas o reuniones. Por último, el liderazgo Nasa, al igual que el liderazgo Tzotzil, se basa en un profundo sentido de la comunidad que se desprende de un tejido social fuerte y estrecho. Cuando todas las personas se entienden como parte de este sistema, los líderes toman decisiones que benefician a la comunidad, porque es la única forma en que se benefician a sí mismos. En este sistema de pensamiento, no hay beneficio propio que excluya el beneficio de la comunidad.

Si bien es cierto, muchos de los aspectos mencionados hacen parte del “deber ser” que hoy en día le exigimos a nuestros líderes, vale la pena revisar si en efecto eso sucede o solamente está ocurriendo a nivel discursivo. De cualquier forma, a mi modo de ver, lo más importante será reflexionar si en los momentos en los que nosotros estamos en roles de liderazgo, lo ejercemos teniendo en cuenta los principios de comunicación, empatía y sentido de comunidad.

Nicolás Vallejo.

¿Y qué hacemos en la consultoría de transformación?

La transformación cultural requiere de una gestión de la autoridad -el poder- y por tanto de un liderazgo diferente. Nuestra visión del liderazgo adaptativo sitúan también como fundamental el sentido de comunidad, el sentido del trabajar en aras del bien de un grupo, por para y ellos. El liderazgo sostiene una lucha con el poder y el status quo, y es importante que lo distingamos de la autoridad en las organizaciones.

El primer punto es la transformación personal, que nos puede llevar a trabajar la empatía y por tanto a movilizarnos a favor del grupo, pero también debe suceder a la vez que los cambios sistémicos. Son dos líneas que bailan juntas, que se adelantan una a otra, unas veces el sistema desafiando a la autoridad establecida, otras veces los líderes desafiando al sistema establecido. Es por ello, que el tercer punto que destaca Nicolás -la comunicación- es fundamental para mantener la cohesión y la dirección.

Angela & Joserra

Volver
Volver
TAYARI LAB
Etnografía

 

Estamos haciendo un experimento: invitar a gente de diferentes disciplinas a escribir sobre ellas y qué conocimiento buscan. Esperamos que este experimento crezca y se convierta en una especie de residencia de escritores. Queremos traer perspectivas frescas, ayudar a conectar ideas y que disfrutéis estas lecturas diferentes.
Nuestro primer residente es Nicolás, un antropólogo, y este es su primer post:

El siglo XX fue testigo del nacimiento de diversas metodologías que las ciencias sociales utilizaron para explicar el comportamiento de los grupos humanos.

En un comienzo, la antropología se dedicó al estudio de “los otros”, todos aquellos que no eran considerados como poblaciones “civilizadas”, mientras que la sociología se encargó de estudiar la forma en la que se organizaba la sociedad occidental y los retos a los que se enfrentaba. Con el paso del tiempo ambas disciplinas empezaron a diversificar sus objetos de estudio, lo que, eventualmente, permitió que estos fueran compartidos por ambas disciplinas, y así mismo, fueron compartidos sus metodologías de investigación. Dentro de estas metodologías destaca la etnografía, piedra angular de las teorías antropológicas producidas en el siglo XX y ahora compartida con la sociología. 

La etnografía es una metodología que busca comprender los fenómenos sociales desde la perspectiva de quiénes lo viven de primera mano; esto implica que el investigador se comprometa a vivir en carne propia la cotidianidad del grupo investigado. En ese orden de ideas, el investigador estará sujeto a situaciones y problemas parecidos a los que viven sus sujetos de estudio, por lo que el conocimiento que obtenga será fruto de la experiencia. 

Uno de los primeros estudios etnográficos, fue el resultado de un infortunio. En el año 1914 el antropólogo de origen polaco Bronislaw Malinowki, terminó atrapado en las islas Trobriand (Papúa Nueva Guinea) cuando realizaba un trabajo de campo. El estallido de la primera guerra mundial hizo que el Imperio Británico prohibiera su salida de aquel lugar, ya que se consideraba que por ser polaco (en aquel momento austrohúngaro) podría ser un espía. Tal prohibición obligó a este antropólogo a pasar varios meses en esta isla, conviviendo con los lugareños. Al final de dicha estadía, pudo formular su teoría sobre el kula, a partir de la experiencia y las observaciones que llevó a cabo. 

Con el paso del tiempo, la etnografía se fue constituyendo como la piedra angular de la antropología social, ya que permitía a los investigadores tener un entendimiento profundo de las formas de ver el mundo de las “otras” culturas. Sin embargo, en la actualidad su importancia radica en que permite a los investigadores obtener tres tipos de comprensión sobre el día a día de los sujetos: El “qué”, el “por qué” y el “cómo es para ellos”. 

En primer lugar, el “qué”, se refiere a una descripción del suceso o fenómeno que está ocurriendo. En segundo lugar, el “por qué”, suele ser una explicación (o teorización) que explica cuáles son las causas del fenómeno ocurrido. En tercer lugar, y tal vez el más importante de todos, es el “cómo es para ellos”, ya que le permite al investigador, entender cómo es percibido el fenómeno ocurrido por las personas implicadas en él; así mismo, puede llevar a cabo un contraste en la forma en la que él como investigador entiende el problema, con la forma en la que los sujetos implicados lo entienden. 

La razón por la que me permito llamar a esta metodología de investigación “la joya de la corona” de la investigación cualitativa, es porque se erige como la herramienta más poderosa que tienen las ciencias sociales para explicar la vida cotidiana de las personas. En ese orden de ideas, es una herramienta que termina por dar cuenta de lo que ocurre a los sujetos en sus niveles de interacción más recurrentes. Así que el investigador puede emprender un recorrido que va desde una perspectiva micro, a una perspectiva macro, en busca de las respuestas a la pregunta ¿por qué las personas viven su día a día de la manera en la que lo hacen?

Nicolás Vallejo Morales

¿Y qué hacemos en la consultoría de transformación? 

Cuando llegamos a una organización porque tiene una necesidad en la que podemos ayudar, uno de los primeros pasos es conocer el “qué”, el “por qué” y el “cómo es para ellos”.

Nosotros, en Tayari, estamos interesados en la etnografía como metodología de investigación, ya que, una parte de nuestra labor se enfoca en los grupos humanos que componen las organizaciones que solicitan nuestra ayuda. Para poder brindar esta ayuda, llevamos a cabo un proceso de descubrimiento que se enfoca en observar, conversar y analizar. 

Teniendo en cuenta lo enunciado en el anterior artículo sobre la etnografía, nos damos cuenta de que hay un gran nivel de coincidencia, especialmente en dos puntos: Observar, en el cual nosotros nos involucramos y compartimos actividades con las personas de la organización para entender lo que ocurre en su cotidianidad. Conversar, en el cual hablamos con las personas para entender su visión de la realidad organizativa.

En el tercer punto,  Analizar, recogemos los datos recogidos en las dos actividades mencionadas y logramos ubicar el por qué de las necesidades de la organización, ofreciendo razones desde nuestra perspectiva que no son capaces de observar ellos mismos. 

Angela & Joserra

Volver