Dentro gli algoritmi che regolano il nostro tempo - Donata Columbro

Adil
27 Feb 202320:26

Summary

TLDRThe transcript is an interview with Donata Columbro, a journalist specializing in data and technology with an intersectional approach. She discusses the impact of technology on society, particularly how algorithms used by social media platforms can influence user experiences and potentially exacerbate discrimination and inequalities. Columbro explains that algorithms are sets of instructions designed to achieve a desired outcome, but their effectiveness depends on how well they are written. She also touches on the evolution of social media algorithms, which learn from user behavior and interactions to tailor content. The conversation delves into the role of algorithms in shaping political discourse and the importance of being aware of their influence on our lives. Columbro emphasizes the need for transparency and understanding of algorithms to counteract their potential negative effects, such as discrimination, and to ensure fair representation and decision-making.

Takeaways

  • 📰 Donata Columbro is a journalist focusing on data and technology's impact on society, aiming to uncover inequalities or human rights violations through data analysis.
  • 🔍 She emphasizes the importance of an intersectional approach to understand how technology can influence societal structures and individual lives.
  • 📈 Algorithms are a set of instructions or procedures to achieve a desired outcome, and when well-designed, they are the most efficient way to reach a certain result.
  • 🤖 Social media algorithms are not singular; they are diverse and work together, including learning algorithms that adapt based on human interaction and behavior.
  • 📉 Interactions on social platforms, such as likes and comments, are scored and used by algorithms to determine the content users see, potentially leading to content polarization.
  • 🛍️ The business objectives of platforms influence how algorithms function, with a current focus on keeping users engaged on the platform, even with divisive content.
  • 📉 The design of recommendation algorithms aims to manage the vast amount of content by selecting what appears on users' timelines based on certain rules.
  • 🌐 Different platforms, like Reddit, use user interaction rather than algorithms to determine the order of content, offering a more community-driven approach.
  • 📝 Data privacy is a significant concern, with regulations like GDPR in Europe providing some protection against the misuse of personal data by platforms.
  • 🏛️ Algorithms are not neutral; they reflect the biases and prejudices present in the data they are trained on, which can lead to discrimination against certain groups.
  • 🤖 The increasing complexity of technology and software can exacerbate existing biases if not carefully managed and made aware of these potential issues.
  • 🌟 Raising awareness about how algorithms work and their impact on our lives is crucial for resisting manipulation and advocating for transparency and fairness.

Q & A

  • What is the role of Donata Columbro as a journalist?

    -Donata Columbro is a journalist who focuses on data and technology, particularly examining the impact of technology on society and people's lives. She looks at how the tools we use or are presented with can affect discrimination and inequalities.

  • What is the definition of an algorithm according to the transcript?

    -An algorithm is defined as a set of instructions or procedures to achieve an expected result. If well-written, it is the best way to reach a certain outcome, similar to a recipe for baking a cake.

  • How do social media algorithms work?

    -Social media algorithms decide the ranking and aggregation of content that users see. They are different types of algorithms, including learning algorithms that adapt based on user interactions with content.

  • What is the impact of user behavior on social media algorithms?

    -User behavior, such as likes, comments, and other interactions with content, can significantly vary, causing the data produced to be diverse. Algorithms learn to recognize variables, patterns, and similar elements from this behavior to adjust the content they recommend to users.

  • How do social media platforms aim to keep users engaged?

    -Social media platforms aim to keep users engaged by showing content designed to maintain their interest, even if it's through negative emotions. The goal is to keep users on the platform for as long as possible.

  • What is the importance of data in shaping the content we see on social media?

    -Every interaction with social media platforms becomes data that influences the content we see. This includes likes, comments, and shares, which are assigned scores that algorithms use to decide how much of a particular content to show us.

  • How does GDPR impact the use of personal data in Europe?

    -GDPR (General Data Protection Regulation) provides a level of protection against the misuse of personal data by social media platforms. It regulates how personal data is collected, processed, and used, especially for commercial purposes.

  • What role does image recognition technology play in social media?

    -Image recognition technology allows computers to identify objects within images, which can be used to provide descriptions for visually impaired users. It also helps train machine learning models, contributing to the development of technologies like text-to-image and image-to-text systems.

  • How can biases in algorithms affect society?

    -Biases in algorithms can perpetuate societal prejudices and stereotypes, leading to discrimination against certain groups. This can occur if the data used to train the algorithms is not representative or if the categories used are not inclusive.

  • What is the relationship between algorithms and politics?

    -The relationship between algorithms and politics can influence the type of content people see, potentially polarizing viewpoints and affecting how political messages are communicated. Algorithms may prioritize more aggressive or polarizing content, which can change the tone and priorities of political discourse.

  • How can people resist or influence algorithmic decisions?

    -People can resist algorithmic decisions by being aware of how they work and understanding how their actions can influence the content they see. This includes engaging with a variety of content and being critical of the recommendations provided by algorithms.

  • What is the importance of transparency in algorithms?

    -Transparency in algorithms is crucial for understanding how they make decisions and how they might discriminate or privilege certain types of content or users. It allows for the identification of biases and the promotion of fairness in how algorithms are designed and used.

Outlines

00:00

📰 Introduction to the Journalist's Space

The speaker, Adil, introduces himself as a journalist who uses a virtual space to meet people and share stories related to current events and culture. He discusses his background in political science and international relations, his aspirations to work with NGOs and the United Nations on human rights, and his current role in journalism, which involves using data to investigate and reveal inequalities or human rights violations in communities. Adil also mentions his newsletter, named after his first book, which explains data and tackles these themes, and touches on the concept of algorithms, their impact on society, and the importance of understanding their role in shaping our experiences on social media platforms.

05:00

🤖 The Impact of Social Media Algorithms

The paragraph delves into the functioning of social media algorithms, emphasizing how they determine the content we see based on our interactions. It highlights the difference between static algorithms, like a recipe for making a cake, and dynamic ones that learn from our behavior and adapt over time. The speaker discusses how algorithms can inadvertently reinforce biases and discrimination, and how they are designed to keep users engaged on platforms, sometimes at the cost of promoting polarizing content. Elon Musk's tweet about the nature of algorithms on social media is mentioned, illustrating how engagement, even negative, is used to keep users on the platform.

10:02

📈 Data Collection and Personal Privacy

This section addresses the collection of personal data through social media interactions and the implications for privacy. It discusses the role of data protection regulations like GDPR in Europe, which aim to safeguard individual privacy and prevent exploitation by platforms. The speaker also talks about the use of images on social media and how they are used as datasets to train machine learning models in object recognition and other AI technologies. The paragraph further explores the concept of algorithmic neutrality, noting that the selection and categorization of data are inherently human decisions that can introduce biases into the algorithms.

15:04

🏛️ Algorithms, Politics, and Society

The relationship between algorithms and politics is explored, with a focus on how polarized content can amplify extreme positions and affect political discourse. The speaker discusses the potential dangers of relying on algorithms for decision-making and the importance of maintaining human control over critical aspects such as morality and creativity. The concept of 'algorithmic resistance' is introduced, where individuals or groups actively try to manipulate or circumvent algorithmic rules to gain visibility or challenge the system. The paragraph also touches on the varying perspectives on technology in politics, ranging from enthusiasm to caution.

20:05

🕵️‍♀️ Awareness and Action Against Algorithmic Bias

The final paragraph emphasizes the importance of being aware of how algorithms work and their impact on our lives. It suggests that understanding the role of algorithms in shaping our digital experiences can help us recognize instances of discrimination and take action, such as demanding transparency from platforms. The speaker encourages individuals to be conscious of the power algorithms have in determining what content they see and how it can influence their perceptions and opportunities, advocating for a more informed and critical approach to engaging with digital platforms.

Mindmap

Keywords

💡Algorithm

An algorithm is a set of instructions or procedures for achieving a desired outcome. In the context of the video, algorithms are used to determine what content users see on social media platforms. They are crucial in shaping the user experience and can have significant societal impacts, such as influencing perceptions and potentially exacerbating discrimination or inequalities.

💡Social Media

Social media refers to online platforms that enable users to create and share content or participate in social networking. The video discusses how social media algorithms govern the content that users are exposed to, potentially shaping their perceptions and interactions, and how human behaviors can influence these algorithms.

💡Data

Data, in this video, refers to the information collected from users' interactions on social media platforms. It is used by algorithms to learn user preferences and tailor content. The video emphasizes the importance of understanding how data is used, the impact of data collection on privacy, and the ethical considerations surrounding its use.

💡Bias

Bias in the context of the video pertains to the inherent prejudices or stereotypes that can be reflected and amplified by algorithms. The video discusses how algorithms are not neutral and can perpetuate societal biases if not carefully designed and monitored, affecting how content is recommended and who is visible on these platforms.

💡Discrimination

Discrimination refers to unfair treatment or distinction made based on certain characteristics. The video highlights that algorithms can inadvertently contribute to discrimination if they are trained on biased data or if they do not account for societal prejudices, impacting the visibility and representation of different groups.

💡Human Behavior

Human behavior is the way individuals act and react in different situations. In the video, it is discussed how algorithms on social media platforms learn from and adapt to human behaviors, such as liking, commenting, and sharing, to influence what content is shown to users.

💡Machine Learning

Machine learning is a type of artificial intelligence that allows systems to learn and improve from experience without being explicitly programmed. The video touches on how machine learning algorithms on social media platforms can recognize patterns and variables from user interactions to predict and shape content delivery.

💡Content Polarization

Content polarization refers to the tendency of content to become more extreme or one-sided. The video discusses how algorithms may promote polarized content to keep users engaged, potentially leading to more radical viewpoints and less diverse perspectives being shared on social media.

💡Transparency

Transparency in the video refers to the openness and clarity with which social media platforms and algorithms operate. The speaker argues for the importance of transparency in understanding how algorithms make decisions and impact users, which is crucial for addressing discrimination and ensuring fairness.

💡Data Protection

Data protection involves safeguarding personal information from unauthorized access or misuse. The video mentions GDPR (General Data Protection Regulation) as an example of legal frameworks designed to protect personal data, highlighting the importance of data protection in the digital age.

💡Resist Algorithmic Influence

Resisting algorithmic influence refers to the actions taken by individuals to counteract or make decisions independent of algorithmic suggestions. The video discusses how some users engage in behaviors to trick algorithms into promoting their content or to see a broader range of perspectives, emphasizing the desire for autonomy in the face of algorithmic curation.

Highlights

Donata Columbro is a journalist focusing on data and technology, examining the societal impact of technology and its potential to exacerbate discrimination and inequalities.

She studied political science and international relations, initially aiming to work with NGOs and the United Nations on human rights, which she still engages with through her journalistic approach.

Columbro uses data to verify news stories and uncover potential inequalities or human rights violations, particularly within certain communities.

She has a newsletter named after her first book, which explains data and addresses topics such as algorithms, their definitions, and their societal impacts.

An algorithm is defined as a set of instructions or procedures to achieve a desired outcome, which can be applied in various contexts, from recipes to social media content ranking.

Social media algorithms are not singular but a combination of different algorithms that work together to decide the content we see.

Behavior on social networks, such as likes and comments, can significantly influence the type of content an individual is shown, as algorithms learn from user interactions.

Elon Musk's recent tweet highlighted how interacting with content, even negatively, can lead algorithms to continue promoting similar content, as they interpret the interaction as something the user enjoys.

The objectives of social media platforms, driven by business goals, can change how algorithms function, affecting user experiences and the content they are exposed to.

The vast quantity of content available means algorithms must decide which items to display on users' timelines, potentially using chronological order as an initial approach.

Platforms like Reddit represent a different model, where user interaction, rather than an algorithm, determines the prominence of content.

Data collection by platforms is a significant concern, with regulations like GDPR providing some protection for personal data use in Europe.

Algorithms are not inherently neutral; they reflect the biases and prejudices present in the data they are trained on, which can lead to discrimination.

The categorization and labeling in data collection are human decisions that can introduce bias into how algorithms perceive and respond to different groups of people.

The increasing complexity of technology and software can inadvertently amplify existing societal biases if not carefully managed.

Political content online can become more polarized due to algorithmic promotion of extreme views, which can lead to more aggressive discourse and potentially change political priorities.

There is a fascination with technology's efficiency, but there is a risk in delegating too many human decisions to algorithms that may not account for morality or creativity.

The concept of 'algorithmic resistance' is discussed, where individuals actively try to influence or manipulate algorithmic outcomes, highlighting a desire for autonomy.

Awareness of algorithmic functioning and the impact on personal privilege and discrimination is crucial, with transparency being a key demand in addressing these issues.

Transcripts

play00:00

mi chiamo Adil sono un giornalista e

play00:02

questa è la mia stanza uno spazio

play00:04

virtuale Dove incontro persone e

play00:06

condivido storie legate all'attualità e

play00:08

al mondo della cultura buon ascolto

play00:13

Chi è donata Columbro sono una

play00:16

giornalista mi occupo di dati e

play00:18

tecnologie con un approccio

play00:20

intersezionale cioè Cerca di guardare

play00:22

come la tecnologia in particolar modo ha

play00:25

un impatto sulla nostra società sulla

play00:27

vita delle persone guardando al fatto

play00:30

che questi strumenti che utilizziamo o

play00:33

che ci vengono proposti come novità del

play00:35

momento possono avere degli effetti un

play00:38

impatto sulle discriminazioni o le

play00:40

disuguaglianze io racconto sempre che ho

play00:43

studiato scienze politiche relazioni

play00:45

internazionali perché Sognavo di andare

play00:47

a lavorare nelle Ong alle Nazioni Unite

play00:49

quindi Di occuparmi dei diritti umani ma

play00:51

in realtà me ne occupo ancora oggi

play00:53

appunto da giornalista e con un

play00:55

approccio che è quello anche

play00:56

all'utilizzare i dati per andare a

play00:59

verificare eventualmente

play01:01

notizie storie che possono far

play01:05

intravedere appunto disuguaglianze o

play01:08

violazioni dei diritti umani su alcune

play01:10

comunità ho una newsletter che che si

play01:13

chiama come primo libro che ho scritto

play01:14

che ti spiego il dato e mi occupo

play01:17

appunto di questi temi scrivendone o

play01:20

facendo formazione di cosa parliamo

play01:22

quando parliamo di algoritmi parliamo di

play01:25

tante cose Dipende Chi ne sta parlando

play01:27

nel libro appunto dentro l'algoritmo Noi

play01:30

abbiamo fatto questa scelta di tanto di

play01:32

parlarne al singolare come se ce ne

play01:34

fosse uno unico no che ci governa in

play01:36

realtà giustamente gli algoritmi possono

play01:39

essere diversi quando si pensa

play01:42

all'algoritmo per esempio che governa i

play01:44

social media si pensa che ce ne sia uno

play01:46

solo ma ce ne sono tanti che lavorano

play01:48

insieme una definizione molto semplice

play01:50

di

play01:51

algoritmo è quello che li vede come

play01:54

serie set di istruzioni o di procedure

play01:57

per arrivare al risultato atteso quello

play02:00

che ci aspettiamo se sono scritte bene è

play02:02

il modo migliore per raggiungere un

play02:05

certo risultato se sono scritti bene

play02:06

quindi possiamo applicarli dalla ricetta

play02:10

per fare la torta e se è scritta bene la

play02:12

torta bene È buona e piace a tutti e

play02:14

tutte s'è scritto male quindi ci sono

play02:17

degli errori o dei problemi questa torta

play02:19

non verrà fuori bene è semplicemente

play02:21

appunto un insieme di regole io lo

play02:24

immagino come un diagramma di flusso se

play02:27

lo devo immaginare disegnato o quando

play02:31

penso all'algoritmo perché appunto ci

play02:33

sono una serie di possibilità no che

play02:35

possono dire amarsi a seconda di

play02:37

un'azione che viene fatta un dato che è

play02:40

presente oppure no noi stessi Quando

play02:42

andiamo a fare la spesa faccio questo

play02:44

esempio nel libro e decidiamo quale

play02:46

prodotto acquistare facciamo pesiamo

play02:49

delle variabili No nella scelta di un

play02:52

pacco di biscotti piuttosto che un altro

play02:54

nella nostra testa stiamo creando un

play02:56

algoritmo semplicemente all'inizio del

play02:59

libro racconti di quando hai chiesto

play03:00

alle persone che fanno parte della tua

play03:02

comunità su Instagram di iscriverti le

play03:04

prime parole associate al termine

play03:06

algoritmo una frase ha colpito la mia

play03:08

attenzione Facebook e social che

play03:10

scelgono cosa mostrarci Per quanto

play03:12

riguarda i social social network come

play03:13

stanno effettivamente le cose Beh

play03:15

nell'algoritmo dei social network

play03:17

effettivamente le regole decidono la

play03:20

classifica dei contenuti che noi

play03:22

dobbiamo vedere quindi sono algoritmi

play03:25

che mettono in ordine che aggregano sono

play03:27

tipi di algoritmi diversi Ovviamente nel

play03:30

mondo quelli dei social network sono di

play03:33

diverse tipologie e in particolar modo

play03:35

sono anche algoritmi di apprendimento

play03:37

automatico quindi non sono solo la

play03:40

ricetta è un algoritmo semplice perché

play03:42

il risultato è quello atteso non può

play03:45

cambiare i dati gli dobbiamo cambiare

play03:47

noi ogni volta se vogliamo mettere una

play03:50

variabile diversa c'è una persona con

play03:52

una intolleranza e devo sostituire il

play03:55

latte vaccino con quello vegetale per

play03:57

esempio c'è sempre un intervento umano

play03:59

il risultato non cambia non apprende

play04:02

ogni volta che noi facciamo quella

play04:04

ricetta in modo diverso quello che

play04:06

succede negli algoritmi dei social

play04:08

network è che i comportamenti umani

play04:11

quindi secondo

play04:12

piccolino interagiamo con i contenuti il

play04:15

mi piace il commento in realtà possono

play04:16

variare tantissimo e quindi questa

play04:19

variazione dei comportamenti fa sì che i

play04:21

dati che si producano sono molto diversi

play04:23

e gli algoritmi però imparano a

play04:25

riconoscere delle variabili dei pattern

play04:28

degli elementi simili per fare una

play04:30

traduzione e dire ok Se questa persona

play04:32

un esempio molto semplice a me sempre mi

play04:36

piace a qualcosa che riguarda lo sport

play04:38

la corsa probabilmente Quindi fa una

play04:42

specie di correlazione le piacerà tutto

play04:44

quello che riguarda lo sport alla corsa

play04:47

l'atletica le scarpe gli atleti le

play04:49

atlete e i contenuti che privilegio per

play04:52

lei saranno quelli che riguardano questo

play04:54

argomento è molto interessante che

play04:57

questo agire dell'algoritmo in questo

play05:00

modo sembra che appunto ci faccia

play05:01

qualcosa per farci piacere no perché ci

play05:03

dice ok a Donata piace la corsa l'ho

play05:06

capito da tutte le cose che sta facendo

play05:07

quindi apprende mano a mano dal mio

play05:10

comportamento quando sono rimasta

play05:12

fondotinta avevo smesso di correre

play05:14

l'algoritmo lo aveva capito Quindi si è

play05:17

aggiornato ha cambiato le sue regole e

play05:19

ha iniziato a farmi vedere altri

play05:20

prodotti però dobbiamo ragionare con la

play05:23

mente di un computer e Paradossalmente

play05:25

pensando a Twitter elon musk ha spiegato

play05:28

circa un mese fa ha fatto Un Tweet in

play05:31

cui diceva esattamente come funziona

play05:33

l'algoritmo se ti vede interagire con un

play05:37

contenuto anche per insultarlo

play05:39

l'algoritmo secondo la regola che è

play05:41

stata scritta capisce che tu provi gusto

play05:44

a farlo che quindi un'attività che ti

play05:46

piace fare quindi prendertela

play05:49

arrabbiarti con quel contenuto E quindi

play05:52

continuerà a proportelo quindi

play05:54

l'algoritmo dei social in particolar

play05:56

modo Come si sono sviluppati ultimamente

play05:58

non sono sempre stati così le regole

play06:00

cambiano perché cambiano gli obiettivi

play06:03

cioè quello che Le piattaforme decidono

play06:05

che sono gli obiettivi di business e

play06:08

quindi cambiano il funzionamento

play06:10

dell'algoritmo se il oggi il dato

play06:14

interessante l'obiettivo è quello di far

play06:16

tenere le persone sulla piattaforma devo

play06:18

tenerle incollate anche se non gli piace

play06:20

il contenuto Questo è un passaggio da

play06:22

fare Secondo me interessante cioè noi

play06:25

non siamo online non scrolliamo perché

play06:27

ci piace ma perché in qualche modo il

play06:29

contenuto è progettato per mantenerci lì

play06:31

e questo tweet di elon musk svelava

play06:34

davvero la modalità di funzionamento di

play06:37

questo algoritmo cioè della regola che

play06:38

dice che se tu interagisci in qualche

play06:41

modo questa cosa funziona per tenerti lì

play06:44

continuerai a commentare a mettere mi

play06:46

piace a protestare di nuovo perché in

play06:49

qualche modo in testa uscire un'emozione

play06:51

anche negativa non c'è solo

play06:52

intrattenimento c'è anche molta

play06:54

polarizzazione del contenuto più che

play06:57

decidere quello che che dobbiamo vedere

play06:59

loro devono fare ordine perché la

play07:01

quantità di contenuti Almeno secondo

play07:03

cioè questa è la l'idea che è nata per

play07:08

la progettazione di algoritmi di

play07:09

raccomandazione è che la quantità di

play07:11

contenuti è talmente alta significa che

play07:13

è l'algoritmo in base ad alcune regole

play07:17

che gli vengono messe che stabilisce

play07:18

quali sono quelli che devono apparire

play07:20

sulla tua Timeline se non fosse così ne

play07:23

avresti talmente tanti da non riuscire a

play07:25

soffermarti Cioè se tenessimo l'ordine

play07:27

cronologico Come era all'inizio non

play07:29

sarebbe più gestibile Ovviamente è una

play07:32

scelta non è un destino e ineluttabile

play07:34

perché pensiamo piattaforme come reddit

play07:36

in cui non è un algoritmo che stabilisce

play07:38

l'ordine dei contenuti ma l'interazione

play07:41

degli utenti cioè se l'utente commenta

play07:43

mette mi piace se è votato sei moderato

play07:45

non è una macchina ma è l'interazione

play07:48

dell'umano cioè una differenza in questo

play07:51

però si è chiara magari anche per chi

play07:53

non ha mai frequentato reddit è più una

play07:56

sorta di Forum in cui è proprio gli

play07:59

utenti stessi che partecipano alla

play08:01

crescita di quel contenuto mentre nei

play08:03

social network c'è una previsione ancora

play08:06

prima che quel contenuto abbia

play08:09

l'interazione in modo sottile i vari

play08:12

diventare piattaforme funziona nel modo

play08:14

diverso anche per raccogliere queste

play08:16

informazioni dagli utenti per capire

play08:18

cosa le attira stare in quelle che ho

play08:20

chiamato rabbid Hall no le donne del

play08:23

coniglio in cui si entra e non si esce

play08:25

più Però più o meno questa È

play08:27

l'intenzione che oggi è una piattaforma

play08:29

oggi monetizzano il nostro tempo e

play08:32

quindi diciamo che per semplificare la

play08:35

regola degli algoritmi e facciamo stare

play08:37

le persone il più tempo possibile

play08:38

collegate che cosa raccolgono queste

play08:40

piattaforme raccolgono i dati che

play08:43

secondo loro sono interessanti per

play08:46

raggiungere Questo obiettivo una cosa a

play08:49

cui tengo particolarmente occupandomi di

play08:51

dati e avendo appunto anche scritto di

play08:54

un libro sulla data di Interactive e che

play08:56

dobbiamo pensare che ogni dato ogni

play08:58

interazione che noi abbiamo con Le

play09:00

piattaforme non diventa per forza dato

play09:02

automaticamente qualcuno lo decide Cioè

play09:04

che il nostro mi piace il nostro

play09:06

apprezzamento la nostra Reaction gli

play09:09

viene assegnato un punteggio e quindi

play09:11

l'algoritmo anche da quel punteggio può

play09:14

mostrare di più o di meno quel contenuto

play09:16

è una decisione ad oggi ci sono tutta

play09:19

una serie di nostre azioni appunto che

play09:21

vengono considerate dati quindi il tempo

play09:23

speso il commento la condivisione e

play09:27

Alcune hanno più o meno peso più o meno

play09:29

valore altri dati che vengono analizzati

play09:32

sono quelli che riguardano il contenuto

play09:34

in sé per esempio se ci piace un

play09:36

contenuto se Abbiamo apprezzato un

play09:38

contenuto che ci ha proposto la

play09:39

piattaforma di quel contenuto viene

play09:41

analizzato l'hashtag il titolo le parole

play09:45

l'audio la musica se c'è scritto

play09:48

Challenge la tipologia quindi i dati

play09:52

legati al contenuto acquistano anche in

play09:55

quel modo lì un valore e se ci piace un

play09:58

altro contenuto che è la stessa musica

play09:59

ci verranno proposti Magari altri video

play10:02

simili di argomenti diversi Ma hanno lo

play10:06

stesso brano per esempio quindi in

play10:08

qualche modo l'algoritmo li impara le

play10:10

nostre abitudini In base a questo tipo

play10:12

di

play10:12

quando noi ci scriviamo queste

play10:15

piattaforme beh lasciamo i nostri dati

play10:17

personali in Europa abbiamo il gdpr che

play10:20

è il regolamento di protezione dei dati

play10:21

personali Per cui noi abbiamo una sorta

play10:24

di protezione all'uso dei nostri dati

play10:27

quando sentiamo anche di sfruttamento di

play10:30

piattaforme che incrociano le

play10:31

informazioni per avere e le danno anche

play10:34

esternamente o vengono utilizzate a

play10:36

livello commerciale Da noi abbiamo una

play10:38

sorta di protezione aggiuntiva e

play10:40

aumentato anche quello che è diventato

play10:43

vietato fare dal punto di vista degli

play10:45

inserzionisti Per quanto riguarda la

play10:47

raccolta dati però sanno di noi Appunto

play10:50

quello che noi raccontiamo anche tutto

play10:52

il contenuto che noi impostiamo le

play10:54

nostre foto Tra l'altro moltissime delle

play10:56

foto che noi usiamo nei social network è

play10:58

stato raccontato da più volte da più

play11:00

inchieste Oggi sono il materiale sono i

play11:04

dataset che fanno imparare alle macchine

play11:08

a tecnologie come mi giorni stable

play11:10

Diffusion come

play11:12

disegnare e come trasformare le parole

play11:15

in un'immagine perché all'interno dei

play11:18

social network è stato inserito grazie

play11:20

alla tecnologia del network language

play11:23

Processing e quindi anche del dell'image

play11:25

to text la possibilità di riconoscere

play11:27

gli oggetti cioè i computer oggi sono

play11:29

riconoscere gli oggetti presenti in

play11:31

un'immagine che è una bella tecnologia

play11:32

se pensiamo a chi usa software di

play11:36

lettura a schermo e quindi non può

play11:39

vedere le immagini ma un software di

play11:41

legge che all'interno di una fotografia

play11:43

sono presenti tre cani bianchi due gatti

play11:46

e un bambino in piedi questa tecnologia

play11:49

immessa all'interno dei social network

play11:52

fa sì che oggi però quelle immagini e

play11:54

quindi tutte quelle parole associate a

play11:57

quegli elementi siano un ottimo set di

play12:00

dati per allenare invece la tecnologia

play12:03

Text to image non image to text Quindi

play12:06

quelle per cui noi scriviamo Disegnami

play12:09

un cane astronauta su una nuvola rosa e

play12:12

il software è in grado di disegnarlo

play12:14

Perché sa dove andare a prendere nuvola

play12:16

sa dove prendere cane sa dove prendere

play12:18

astronauta un altro aspetto molto

play12:20

interessante La millantata neutralità

play12:22

degli algoritmi assolutamente come

play12:25

millantata neutralità del dato ogni

play12:27

volta che pensiamo a tecnologie dati ci

play12:29

immaginiamo qualcosa di appunto di

play12:31

neutro perché la matematica ci dà questa

play12:33

illusione il fatto che i dati la

play12:36

decisione di osservare qualcosa di

play12:38

analizzarlo di raccoglierlo è umana

play12:40

Quindi stiamo in qualche modo noi

play12:41

includendo all'interno della nostra

play12:43

lente di osservazione un pezzo di realtà

play12:46

e lasciamo fuori il resto le

play12:48

appiccichiamo una categoria un'etichetta

play12:50

quindi la stiamo nominando in un certo

play12:53

modo magari mettendo insieme anche cose

play12:54

diverse tra loro pensiamo a esempi che

play12:58

possono essere capiti dai bambini

play13:00

pensiamo alla frutta metto insieme cosa

play13:03

che decido che è frutta a un certo punto

play13:04

ci metto pere mele kiwi il pomodoro in

play13:09

realtà è classificato come frutta ma un

play13:10

bambino lo metterà tra la struttura sono

play13:13

decisioni che prendiamo no quando devo

play13:15

mettere insieme oppure le stesse cose

play13:16

posso classificarle secondo Altre

play13:18

caratteristiche il colore allo stesso

play13:20

modo quando decidiamo di contare

play13:23

categorizzare delle persone per esempio

play13:25

attacchiamo un etichetta e quando queste

play13:28

dataset no con le nostre colonne le

play13:30

nostre righe sono quelle da cui gli

play13:32

algoritmi devono prendere informazioni

play13:34

contenuti per elaborare le regole e

play13:37

darci il nostro appunto risultato se

play13:40

dicevamo La ricetta è scritta male o se

play13:42

contiene dei Bios Quindi se non prende

play13:45

in considerazione le differenze se non

play13:47

prende in considerazione i pregiudizi

play13:49

che esistono nella società avrò un

play13:50

risultato pieno di pregiudizi un esempio

play13:53

nel caso degli algoritmi quello in cui

play13:55

io definisco per esempio la categoria

play13:58

donna cosa ci metto all'interno di

play14:00

questa categoria se ci metto solo

play14:02

persone bianche truccate giovani con un

play14:07

corpo conforme tutte le altre non

play14:09

saranno ritenute donne dal computer non

play14:12

mi piace proprio cioè il computer è

play14:14

stupido fa quello che noi gli diciamo

play14:15

Quindi se gli dico che la donna è fatta

play14:18

così quello che non corrisponde a quello

play14:20

non è donna viene fuori quindi quando io

play14:23

vado il motore di ricerca nelle immagini

play14:25

cerco la parola donna mi verrà fuori

play14:27

solo quello che io gli ho detto quello

play14:29

che io gli ho mostrato inizialmente cioè

play14:31

te nel mio dataset c'erano solo donne

play14:34

giovani truccate con corpo conforme

play14:36

anche la rappresentazione che ne farà

play14:38

l'algoritmo sarà quello non è neutro

play14:41

Appunto perché questa Questa

play14:43

discriminazione no anche del

play14:44

marginalizzare già persone

play14:46

marginalizzate o invisibili o

play14:48

invisibilizzate penso le persone

play14:50

disabili si ripercuote e diventa virale

play14:53

come dice Giovanni bolian Wii che una

play14:55

ricercatrice delle mytie che ha molto

play14:57

studiato appunto Il baias degli

play14:59

algoritmi avendolo provato sulla sua

play15:01

pelle visto che aveva sperimentato

play15:03

questo software di riconoscimento

play15:05

facciale che non vedeva il suo volto

play15:06

perché di pelle nera mano mano che la

play15:09

tecnologia è software aumentano di

play15:11

complessità Ragazzi ripercuotono queste

play15:14

differenze queste discriminazioni anche

play15:15

su questi software ne abbiamo già citati

play15:18

prima mi giorni sebo il diffusore da lì

play15:20

sono nati con questi bias e pregiudizi

play15:23

interni ora stanno cercando di mitigarli

play15:25

Ma se io scrivo per esempio la parola

play15:28

infermiere in inglese nurse avrò come

play15:32

risultato delle figure femminili se non

play15:35

specifico perché il baias è che a fare

play15:38

quel tipo di lavoro ci sono o potrebbero

play15:40

esserci solo donne se scrivo Si io

play15:43

amministratore amministratrice delegata

play15:45

ma in inglese non è generizzata come

play15:47

parola avrò degli uomini Purtroppo se

play15:51

c'è un pregiudizio uno stereotipo nella

play15:53

realtà la macchina lo prende e crede che

play15:56

quella sia l'unica verità accettabile

play15:59

lui te la ripropone Qual è il rapporto

play16:01

tra algoritmi e politica il rapporto tra

play16:05

algoritmo in politica dipende anche un

play16:06

po' da quello che abbiamo detto prima

play16:07

sulla polarizzazione dei contenuti una

play16:10

delle prime cose che mi vengono in mente

play16:11

perché anche se il tuo contenuto viene

play16:14

mostrato a un pubblico di persone che

play16:16

sono anche fuori dalla tua platea

play16:18

sepolarizzante aumenta la modalità

play16:22

diciamo radicale di parlare di un certo

play16:25

argomento perché un conto è dire Credo

play16:27

che questa politica

play16:29

di

play16:31

militarizzazione dell'Europa sia

play16:33

sbagliata per questo quest'altro motivo

play16:35

un conto presentare allo stesso

play16:36

messaggio con un tono più aggressivo e

play16:38

voi pensate che con tutte queste armi

play16:40

non faremo la fine de paese X Certo che

play16:45

con un toro molto più aggressivo Questo

play16:47

contenuto Avrà molte più possibilità e

play16:49

di essere visto di essere commentato di

play16:52

girare quindi i toni cambiano cambiano

play16:55

anche le priorità perché se è solo il

play16:58

contenuto polarizzante che diventa

play16:59

interessante per l'algoritmo a quel

play17:02

punto non mi occuperò di temi su cui le

play17:04

persone non hanno delle posizioni

play17:06

estreme quindi aumentano le posizioni

play17:08

estremiste soprattutto online poi

play17:11

effettivamente Sicuramente quando si va

play17:13

al governo magari queste cambiano ma

play17:14

quando devo fare propaganda politica

play17:16

devo alzare i toni altrimenti il mio

play17:20

contenuto scompare Secondo me la maggior

play17:22

parte degli schieramenti o comunque

play17:23

delle idee politiche riguardo la

play17:25

tecnologia sono sempre quelli di

play17:27

accoglierle con Grande entusiasmo o

play17:29

comunque di vedere di non vedere il

play17:31

pericolo o i rischi ma di vedere la

play17:33

tecnologia come la soluzione che ci

play17:35

porta efficienza collegata

play17:37

all'efficienza tutti vogliono essere

play17:39

efficienti ed essere sinistra poi ci

play17:41

sono modi diversi per svilupparla e per

play17:43

capire qual è la tecnologia migliore ma

play17:45

questa modalità no nel dire se lo fa

play17:47

l'algoritmo Lo fa meglio degli esseri

play17:49

umani è qualcosa che difficilmente

play17:50

troverà delle persone critiche da una

play17:53

parte o dall'altra in modo specifico c'è

play17:55

sempre una fascinazione Ma è lì che si

play17:58

nasconde un po' il pericolo di delegare

play17:59

anche un computer qualcosa che è

play18:01

dell'umano la decisione per esempio

play18:03

computer ci può aiutare a velocemente a

play18:06

leggere dei dati questo sicuramente la

play18:08

velocità o la potenza di calcolo

play18:11

statistica che computer non ce l'ha il

play18:13

nostro cervello la decisione invece

play18:14

quella è tutta umana No la morale o come

play18:18

la creatività per esempio E a proposito

play18:21

di resistenza è possibile aggirare

play18:23

l'algoritmo nel libro abbiamo provato a

play18:26

mettere anche questa parola la

play18:28

resistenza algoritmica ci sono tanti

play18:29

studi tante ricerche che ne parlano

play18:32

anche mettendo la parola Resistenza

play18:34

dandogli un significato non per forza

play18:36

positivo

play18:38

ma in qualche cosa in cui le persone

play18:41

vedono la possibilità di agire di fare

play18:44

qualcosa anche magari illegalmente o

play18:47

pseudo illegale penso a quello che

play18:50

racconto nel libro dei gruppi che Pod

play18:53

vengono così chiamati persone che si

play18:55

mettono insieme su altri social network

play18:57

e Si invitano a vicenda a mettere il mi

play19:01

piace mettere i commenti e sui propri

play19:02

contenuti Instagram per aggirare appunto

play19:05

ingannare l'algoritme e dire Guarda che

play19:07

ci sono tante persone interessate è

play19:09

qualcosa che Le piattaforme vedono di

play19:10

cattivo occhio

play19:12

qualcuno può essere disattivato se si

play19:13

scopre un'azione di questo tipo questo

play19:15

esempio ci fa vedere come in qualche

play19:17

modo noi vogliamo sentirci

play19:19

indipendenti da quello che un computer

play19:21

sta decidendo per noi soprattutto quando

play19:24

non capiamo le sue regole pensiamo che

play19:25

siano ingiuste nei nostri confronti a

play19:27

prescindere dalla scala delle

play19:29

ingiustizia nel libro parliamo di

play19:30

privilegio che il mio contenuto seppur

play19:33

ci lavorano quindi magari dipende il mio

play19:36

lavoro non viene promosso su Instagram

play19:38

abbastanza a un certo peso nella mia

play19:42

vita se invece è un algoritmo decide che

play19:44

io possa o meno avere un sussidio

play19:47

familiare che mi serve per mandare

play19:49

avanti la mia famiglia i bambini a

play19:52

scuola ha un altro peso se Quindi se ci

play19:54

sono delle variabili no che vengono

play19:55

immesse in questi algoritmi che in

play19:57

qualche modo mi penalizzano perché

play19:58

cittadina straniera o perché vivo in una

play20:02

certa zona della città la resistenza

play20:04

Secondo me primaria che possiamo avere è

play20:06

quella della consapevolezza sul loro

play20:08

funzionamento e anche appunto capire

play20:10

dove arrivano al nostro privilegio nel

play20:14

non essere impattati dall'algoritmo e

play20:16

dove invece c'è discriminazione e come

play20:19

fare anche appunto per denunciarla O

play20:21

almeno chiedere trasparenza Grazie

play20:23

grazie mille

Rate This

5.0 / 5 (0 votes)

Related Tags
Algorithm ImpactSocietal EffectsCultural InfluenceHuman RightsData JournalismIntersectionalitySocial MediaBias in AIContent PolarizationData ProtectionGDPR Compliance