top of page
  • Jennifer Taylor-Skinner

When Disinformation Targets Black Voters

When Disinformation Targets Black Voters | EPISODE 236

Esosa Osa Explains the 2024 Disinformation Landscape

Episode Transcript

Thu, May 02, 2024 9:25AM  36:55


Esosa Osa, Jennifer Taylor-Skinner

Jennifer Taylor-Skinner 00:00

Hi, I'm Jen Taylor Skinner, and this is The Electorette. On this episode, I have a conversation with a Esosa Osa, the founder and CEO of Onyx Impact, an organization that fights the harmful information ecosystems that target Black communities. Esosa also joins me to discuss how misinformation and disinformation campaigns impact Black voters. In our conversation, she also explains how disinformation campaigns were used to depress Black turnout during the 2016 election, again in the 2020 midterm cycle, and how they've evolved to be even more effective in the current election cycle. We also talk about TikTok, Facebook, and of course, Twitter, and how AI is quickly evolving, which only makes detecting disinformation harder. So without further ado, please enjoy my conversation with is Esosa Osa. 

Jennifer Taylor-Skinner 00:45

Esosa Osa, welcome.

Esosa Osa 00:49

Thank you so much, Jennifer, I'm so happy to be here.

Jennifer Taylor-Skinner 00:52

You know, I'm really excited to have this conversation because I have followed you on social media for a while. I'm always excited when I could to you know, have a conversation with someone that I only know virtually, or to social media because I get to have an in depth conversation and get to know them better. But you know, I have a confession. I did not know you were a disinformation and misinformation expert. Until this was scheduled, I knew that you work for the Stacey Abrams campaign, but I didn't know that you were an expert here. Right. So I'm excited about that. So tell me when did you decide that you wanted to focus your expertise on misinformation and disinformation? Was there a specific moment or specific election cycle?

Esosa Osa 01:33

That's a great question. I think that, at my time at Fair Fight Action, as Deputy Executive Director, and research director, we began seeing in the lead up to the 2020 election, a lot of incorrect, false misleading information about how to vote about mail and voting about, you know, false cases of voter fraud. And this was something we never seen on that scale. And when we were, you know, really researching and tracking the Trump operation, they they they were saying publicly, or in closed sessions, that their goal was to uplift those instances or cases false cases of voter fraud to a national stage in order to discredit the elections and make voting into something that should be policed. And so this became this was very concerning. And when we did even more research on it, we discovered that it's actually very effective to tell people things that are not true on a large scale. And this this, that's what this entire kind of disinformation misinformation apparatuses, and and to be, to be clear, what we're talking about here misinformation is incorrect information that may be accidentally shared, such as incorrect polling locations, or hours shared by mistake, disinformation, is when there's intent involved that's lies with the intent to lie. And so that's actively pushing incorrect polling locations and hours to folks to try to prevent them from voting. And so in the lead up to 2020 and 2020 cycle, we found ourselves because there were so much false and misleading information about

voting, being spread, having to become disinformation experts, and work with, you know, the

broader counter disinfo community to explain to people how how this works, how to fight back how to not amplify false narratives, which were, you know, still working to do well, but it really became in 2020, a core part of what our view of voter protection was making sure we were protecting voters from a see an inundation of voting disinformation throughout that cycle.

Jennifer Taylor-Skinner 03:53

You know, I'm so glad that you define the two because that was going to be my next question. So we're talking about 2020 here, but we know that disinformation and misinformation was a part of the political discourse back in 2016. Right, so this is 2020. So when you started pulling those threads in 2020, what did you find? What was the source of that disinformation specifically in that campaign?

Esosa Osa 04:13

Well, it wasn't necessarily hard to find given that a lot of the far right and the Trump campaign was actively gladly amplifying disinformation, on the the biggest platforms in the world. And part of the reason why disinformation is so dangerous is because for the most part, our brains work in a similar fashion, and that is that, you know, the more times we hear something, the more likely we are to believe that it's true, and the more likely we are to believe other people believe it's true as well. And so the repetition and amplification of that repetition that you get when someone is sharing misleading information. At the presidential podium level is so extraordinary. That is no surprise that so many people believed it. And to this day still believe so many of these false narratives. I mean, if the President of the United States with that massive platform came out every single day and told us that the sky is green, at a certain point, we're all gonna walk outside and look up and be like, I'm not sure. Right? And so that's why all of the research into how Disinformation and Propaganda spreads that it starts off with, please don't do it be it's, it's almost impossible to put this back in the box. Once you start spreading it, it becomes a force of its own. And we've seen what that looks like, in our politics today.

Jennifer Taylor-Skinner 05:50

Right. So those were domestic sources. And I think we're kind of all aware of those with, with conservatives spreading lies about voter fraud and other lies about voters. But were you able to uncover any kind of foreign sources of disinformation in 2020, or in any other election cycle?

Esosa Osa 06:06

Yeah, so, I think one of the more famous cases of disinformation happened in the 2016 cycle with the Facebook group, black vest, that was a Russian backed, basically, massive Facebook group that sought to increase divisions within black communities and between communities overall. And so you saw that Facebook group be one of the more active Facebook groups we had. And that cycle around issues of black and progressive politics and to find out after the cycle that that was entirely inauthentic pushing people into disengagement pushing people into more extreme spaces was, was really disturbing. And that's, you know, part of the reason I founded Onyx impact to map and understand how disinformation affects black communities, is because there hasn't really been a ton of progress or information or study done in terms of how disinformation continues to affect black communities, despite Black communities being, you know, one of the earliest and most aggressive targets, there's there's a broader lack of curiosity and care into black voters that that seeps into, you know, this field of research as well. And we're hoping to change that. And there's certainly, you know, Black focused YouTube channels, influencers, what have you that are very much backed by foreign state actors, that that we should all be concerned with. And, you know, I believe there was an article a few just a few months ago, or a few weeks ago, that spoke about how Russia had launched a disinformation campaign in Mississippi to spread separatist views into that community in ways that we had seen maybe happen in the in the Cold War. And that, that kind of goes to show that the foreign actors are testing these tactics in Black communities, not necessarily in battleground states. And so if we're going to be serious about pushing back and fighting, we need to be serious about understanding the black community and black electorate as a whole, and all of the unique parts that that make it up because these different black audiences were being targeted in different ways. So

Jennifer Taylor-Skinner 08:18

That's really interesting. Do we know how this happens? So for instance, you know, the 2016, Black activists Facebook group, so I'm curious as to who sets up a group like that, and also how we uncovered it, but but also going back to the YouTube groups, when I see these that YouTube groups, these YouTube channels, when I see these channels, this is why I think this information is so fascinating. I know that there's something amiss here. And I know there's there's something nefarious here, but I don't know what it is, right? I don't know who's behind it. But, you know, now we know that Russia is behind some of these, how do these even get started? Are these people approached by someone from Russia like to be really know what the genesis of these channels in these groups are? Like? How do they form?

Esosa Osa 09:00

So, I mean, I'm sure, sometimes filter approach, I'm sure, sometimes, at the beginning and probably in 2016, it's more, you know, creating false fake personalities, right to set up these pages, and having troll farms bot farms, what have you began creating false engagement, and having algorithms pick up on that engagement and push those agents, those groups would have you to other people? And so a lot of times that happens, and, you know, I think when we see, we've all experienced what you're talking about, like Something about this doesn't look right. Right. And that that probably means that the disinformation is primarily being created and disseminated by actors not of our community, right? The the that's why you don't necessarily, you might not get the language right or you might not get the topic exact. Right. But you know, it's a much more dangerous proposition when you're talking about folks, foreign or domestic actors, right, paying for influencing folks in our community that do understand our culture speak the same way we do understand topics in the same way we do when those folks are now the ones pushing incorrect or misleading information in our community, it's done in a much more believable way. And I think moving forward, you you'll you see disinformation campaigns more and more use audiences within the constituency they're targeting, to make it a far more effective campaign. And, you know, as we incorporate artificial intelligence, and generative AI incorporated into these online spaces as well, we're going to get to the point where it's gonna be very difficult to tell the difference between authentic and inauthentic actors behind these accounts.

Jennifer Taylor-Skinner 10:51

Yeah, so sorry to go on about this. But I'm still really curious. So it's one thing to have an account. And we've all seen these, like on Twitter, or like on Facebook, where it's kind of faceless, right. And these people are trying to mimic like language, so that it comes across as something that's credible. That's one thing because it's faceless, and we don't really know who's behind it, or whether they're authentic or not. But when you have someone who's on camera, that seems like a harder thing to set up. Right? So you have a guy, let's say, you know, he's he's been approached by someone to set up a YouTube channel, someone has to go into their studio or their home and sit in front of a camera, and repeat these talking points. And I'm just curious as to how that happens, you know, or check sent to someone call them on the phone and say, hey, I want you to set up this, this YouTube channel. And, you know, repeat this this information. And here's a script until we actually know how that happens.

Esosa Osa 11:38

So, I don't want to overly pontificate or guess as to exactly how people are approached to do to push misleading content. But what I will say is that it doesn't necessarily have to be much different than the kind of intellectual economy we already have, right? of approaching someone that has a large audience, asking someone to promote a product or promote an idea, and being able to capture their audience and their reach in that fashion. And so if we see how quickly and how seamlessly it can be done for non nefarious means, I think that those are probably similar means as to how it's how it happened for these false narratives as well.

Jennifer Taylor-Skinner 12:25

So you mentioned 2020. And now we're in another major political cycle presidential cycle 2024.

What have you seen? Or how have you seen things shift? Or evolve between 2020? And now?

Esosa Osa 12:38

Yeah, absolutely. I've seen, I think there are a couple of really important changes that as as it relates to kind of the disinformation ecosystem affecting black voters in particular one is that there is a a significant amount of very genuine black voter discontent, right, that comes from a host of different issues or, or problems and the ramification of that very genuine voter discontent is that it creates a environment for disinformation to seed and grow because disinformation works best in audiences that are distrustful, disengaged, and fear based. And so when you have so much discontent, and an audience, it's right to be for for disinformation able to spread more easily. And so I think that's one change from 2020 to 2020. For Another difference is that we are seeing far more sophisticated campaigns to all communities, disinformation campaigns, but especially in in black communities, as a relates to who's already in these spaces, what types of content disinformation content to push to them, the increased sophistication has happened for a host of reasons that, you know, I'm happy to get into but it's going to mean that it's going to be harder to stop harder to push back on and more important than ever to be spreading good information to be supporting and uplifting trust messengers and trusted media sources and black media sources ahead of the election. So I think that's that's that's also a major difference. And then generative AI is another significant change from 2020 2024. We're now at a point where you can create individual persuasion campaigns and operations for specific people. And what we're seeing broadly is the cost of spreading disinformation is is approaching zero across the world. While the cost of accessing truth accessing real information is becoming more and more expensive, whether it be by subscription or finding trusted messengers, or doing multiple source taxes becoming harder to get accurate information. And that puts us at an inherent disadvantage. Right in this in this current media ecosystem, we do need to find ways to make sure that folks have just as much access to good information as they do bad. And then the last change, I would say from 2020 2024 is, is that social media companies, tech companies have have rolled back so many policies that were put in place to protect voters, right, they the they've used all types of not great arguments as to why less protections are needed. And so we're going to see these, these platforms be used in more nefarious ways. And it's really disappointing because these are companies that are getting billions of dollars off of our information while just refusing to share any of their own. And given what we saw in previous election cycles. And we saw false claims about elections and political violence against black election workers. And election officials be directly linked, right, the social media companies can't pretend as if there's no link between the false claims that we saw and the violence we saw, and the harassment we saw against black election workers and black election officials. And so we need to hold them to account before, during and after elections for the false information they allowed to spread, and push back on any attempt to take no responsibility or have no accountability for what happens on their platforms. So

Jennifer Taylor-Skinner 16:36

when you say tech companies, do you mean Twitter? Or I guess exes, as he likes to call it now? I'm assuming that to you mean, or if you have other examples, that would be great.

Esosa Osa 16:46

So definitely, definitely, Twitter put you on the spot. Sorry. No, no, no worries. I think there was a Free Free Press article that showed that across meta X you to all those channels have eliminated 17 critical policies that helped keep disinformation in check over just the past year. And we've seen, you know, multiple companies just gut the teams that are responsible for fighting this massive disinformation across the board. And so they, it's not just it's not just x.

And as a matter of fact, for for black communities for far more black folks are on Facebook than on Twitter, the platforms of of YouTube and Facebook and TikTok, you know, often dwarf the size of, of x. And so we need to make sure that we're in the spaces where our communities are when we're talking about this, but we can't allow the social media companies to create environments of hate harassment, you know, misleading information that disproportionately target communities of color, without being held to account for what flows, you know, unimpeded across their platform.

Jennifer Taylor-Skinner 17:59

So, you know, this may be a naive question, but why would Facebook specifically do this and take down all the guardrails given the the amount of criticism they received after the 2016 elections? Why like what's in it for them?

Esosa Osa 18:14

So, that's a great question. And what we saw happen was a really aggressive concerted campaign by the far right to to significantly influence the policy, the platforms and the people in these organizations, including Facebook, I know that they they hired one of their top folks on their their policy team, you know, conservative Trump activists, there was a push by the right to very successful push to claim that these guardrails were that preventing myths and disinformation was censoring, their constituency was censoring a form of free speech. And so they were attacked non stop on these claims, and acquiesced to this conservative campaign to undo these guardrails. And so that's what happened not just at Facebook, but other social media companies was a bowing to the political pressure of you know, some of the same folks that we're not pushing back against the misleading information that we saw in the 2016 and 2020. Cycle.

Jennifer Taylor-Skinner 19:26

You know, you mentioned AI, which everyone is really kind of afraid of, especially in the context of politics, just because it's so new. We don't fully know how it works. And we don't fully know how it's going to be used. And right now, in the context of politics is not being used for anything good, right? There was this image and I don't know if you saw this, there was this image that was floating around a couple of weeks ago, with Trump with a group of black people. And I think the caption with that photo was that you know, these were black black voters for Trump. And you know, people out at that image as being clearly fake being Clearly an AI generated image. I think some of the people had like eight fingers on one hand. I mean, it was, it was clearly in as you know, a fake image and AI generated image. You know, speaking of fake news, I guess my question around that is, is that, you know, it's going to get better. What are we

going to do? And I guess what are, you know, organizations like yours going to do, or maybe the government should be involved in stopping AI from disrupting, you know, our politics and our democracy?

Esosa Osa 20:29

So, that's a great question. And to take a step back, I think it's important to see these as tools, powerful tools that are being pushed by various tech companies to across all types of industries. And we already use artificial intelligence. When you think about facial recognition, medical imaging, auto complete, all of these rely on on AI, and software, it's kind of ability to replicate pattern. So AI is basically means the ability is basically something that can replicate patterns over and over and over again, generative AI is different in that it's able to generate new content from human inputs. And so it doesn't just replicate patterns, it learns from patterns and produces new content, which is, which is a much more kind of powerful probabilistic model that it uses. And, you know, one of the things that we should be concerned about is that this, this, these tools, there's a lot of good that can be used and be done from AI and generative AI. And we should, you know, I want to make sure that we take full use of those and not be afraid of AI. But at the same time, understand that these products, these tools are going to make big tech far more powerful than we need to be careful about how they talk about the power of these products, you'll see them trying to humanize AI and make it into the same thing as a human or a brain. But you know, this is not the case. And by doing that, they basically make themselves seem even more even more powerful. So we got to be careful about that, we have to be careful about the fact that, you know, bad actors are already experimenting with these products. And as you said, you talked about those Trump images. You know, it's also the case that chat GPT for is creating more believable news headlines than actual news organizations, for people. And so it's going to be become increasingly difficult to tell the difference between authentic and inauthentic content. And it's, that's why it's going to be even more important to have trusted messengers, trusted news sources that are available for free across the board to all types of voters. So, you know, that's one concern, you know, another concern with AI is that it has the ability to mislead voters in a much more sophisticated way, by as I said before, kind of micro targeting folks with highly customized inputs for each and every user, or creating for a lot of users creating fake events. You know, they're such as a few a few weeks ago, an image was an AI generated image was was pushed out about a false Pentagon explosion, that saw the stock market dip. And it took a bit of time for folks to realize, or to prove that it was a fake AI generated photo. And so those types of events, you know, happening near elections can cause all types of confusion and concern. So, you know, AI is going to allow more bad actors to produce, you know, a high volume of more sophisticated, inauthentic and programmatic content. And it's going to, you know, make tech companies even more powerful, but we should be, we should still look for opportunities to use and amplify the application, the good application of AI when we can, and make sure that we understand that this is a tool created by humans, it's a computer program, like it's not a person, there's no need to overstate the power of these tools, we just need to educate folks on how to use them properly and how to be properly skeptical about the information they see. I

Jennifer Taylor-Skinner 24:32

totally agree with you that, you know, AI can be a force for good I mean, I you know, full disclosure, I use AI for editing, you know, I podcasts. And you know, there are other really good applications for AI. Right, but then again, as you've mentioned that there is some really kind of

nefarious ways that we can use AI. And I feel like possibly some level of regulation needs to happen. And I'm not sure what that will look like or when it will happen is that is that The possibility.

Esosa Osa 25:01

From your mouth to God's ears like I am always hopeful that we can create and have much needed policy and guardrails around these massive improvements and changes in technology and other other countries or, you know, putting in place guidelines and policies to help mitigate the impact of generative AI and the spread of disinformation, we in the United States have not been as successful, our process also doesn't allow us to be as fast as we need to be when we see how quickly this this stuff comes on online and becomes, you know, incredibly, incredibly big and powerful. And so they just passed a bill to ban TikTok, you know, how many years after it came out, when all of the harms of that platform for we're known from the very beginning, we chose, you know, election cycle where we need a lot of young folks to come out and vote as the time to, you know, potentially take away their favorite thing. And it is just another example of how we're in the United States not rising to the challenge of regulating these potentially harmful technologies and tools?

Jennifer Taylor-Skinner 26:17

Yeah, we didn't even talk about TikTok I mean, what are you saying that we should have regulated TikTok or even banned it earlier? Like, what's your take on TikTok? how harmful is it?

Esosa Osa 26:29

I think that the I think that TikTok, it has obviously opened a lot of doors for a lot of people and a lot of people to engage in, in new and innovative and wonderful ways. And I, I also recognize that it has some some serious national security implications of of having that platform owned by other state actor. And in addition, it's not necessarily TikTok, but is their process, the way that the information is shared on it with these, you know, short videos that glide from one to the next, similar to Instagram rails, right? Both of those platforms, make it easier and faster to kind of digest that information very, very quickly, right, you get that repetition and that amplification far faster than you do, you know, scrolling by yourself, you're far more likely to get, you know, refer to similar content. And so by its nature, its harmful. And by its ownership, it's harmful. And so I think that, especially if those things are known from the beginning, you have a and you have a window to act you you absolutely should. But, you know, there is a there's also a public part of of, you know, passing policy. And I think that were not doing a great job right now making the argument as to why this should be done now, and what to say to folks that have created businesses, personalities, social communities, on these platforms.

Jennifer Taylor-Skinner 28:04

Right, right. I get what you're saying, you know, it's funny, this is kind of meta, but I've always wondered whether the disinformation around the or the, you know, the the take on the necessity of TikTok was actually disinformation itself to nobody.

Esosa Osa 28:18

I mean, yeah, I, I don't I don't have a personal TikTok account. I'm not I'm not necessarily, you know, ruling it out forever. But I, I definitely understand the appeal and the power and the strength of that platform.

Jennifer Taylor-Skinner 28:35

So you know, one of the things that that really bothers me, and I'm sorry to go back to foreign influence campaigns, but it's something that really bothers me. And we're talking about black people and black voters being you know, the targets of those disinformation campaigns, like how do they know so much about us to be able to mimic things and then produce this believable disinformation? Right, it bothers me that they're kind of sending us or watching us, like, how does this happen? Here's,

Esosa Osa 29:02

I think this is, you know, it's a great question. And hopefully, it makes you feel a little bit better about it. They don't know about black folks, you know, they're guessing on a lot of it, that's why, you know, so much of it is bad and so much of it, that they that they spread doesn't doesn't necessarily work and, you know, a few years ago, we would often see like right before the elections, you know, very bad, poorly created, obviously, in authentic and foreign pushes, you know, with someone apply guys, like don't vote bruh or something along those that, you know, it's just like, this is their best, this is the best effort that they got. And what's changed is a few things one, unfortunately COVID-19 created in the disinformation around COVID-19 created immense opportunity for folks that wanted to spread disinformation and communities and black communities because it was. So the disinformation around COVID-19 was so successful, it pulled so many people from so many different communities into disinformation spaces. And so instead of having to target, you know, a wide range of black folks see these campaigns could target folks that they know we're already susceptible to other types of disinformation. Right. So the pool got smaller, and more powerful. And then in addition, we had, we have all types of new technologies that we just talked about artificial intelligence, in general AI that has the ability to adjust to what we call a B test a ton of messages at once. Right. So if you may not know what the right message is to a specific type of black voter, but you may know, but it's probably one of these 400. And if you can, if you can test all 400 of those messages to find the one that fits very quickly. Right, it reduces the need to have to do the level of of learning about these communities that are necessary to authentically persuade them. So the good news is that they still, they still don't know about us. They are finding ways around it. Yeah,

Jennifer Taylor-Skinner 31:20

I guess the clue is, if you come across some content, and it sounds like me, try, try to be cool. To be cool with my kid and not be called cringe. It's probably probably disinformation. So So you know, how, what do we do for 2024? Right? You know, in closing, what how do we detect it? How do we protect ourselves from it? What's a good rule of thumb, if you are a voter,

particularly a black voter, who comes across a piece of information out? First of all, I'll just say this, my rule of thumb is that if I come across some content, and it is nudging me in a direction that is not in my interest, not in my best interest, trying to convince me not to vote trying to convince me that like voting isn't important that civic engagement isn't important, or that I should do something or vote in a way that is against my best interest, my own best interest. I just don't trust it. Right. I can't be certain that it's this information, but I don't trust it. So what's your take on what we should all do going into 2024 to both protect ourselves and to, you know, tease out this disinformation?

Esosa Osa 32:23

So, that's an excellent question. And I think that there are a few things that we can all do. I think that you're absolutely right. It's important to be, you know, a little skeptical, especially of narratives that dissuade black voters from using their power. I think those narratives that folks hear that that kind of go down that line that should be examined, you should think twice to it's important to make sure that we're just on on high alert, if that makes sense for the fact that information may not be true or to check sources. Just simply telling people to be on the lookout for Mr. Disinformation or to check sources actually makes it so that they are far more likely to do it for about three days. So that needs to be kind of a constant message to folks in our community. To be be vigilant, I would also say, we need to be need to invest in Black Media and black trusted messengers, again, it's going to become increasingly more important in this type of election cycle with this much disinformation that can be spread for folks to know who they can go to for good information, and who they can trust. Yeah, and also say that, not just as it relates to politics, but as it relates to all types of narratives, we should be asking ourselves like, Does, does this unnecessarily spread fear or divide black folks or, you know, is this narrative harmful in that way? And if it is, then it's likely one, it's you probably don't want to reshare it into your own community into your own spaces and to it is likely making that space more susceptible to disinformation moving forward, even if it's something you know about Gender Wars or health or what have you. Those types of divisive topics can can make spaces far more susceptible to other types of of contentious narratives that may not be true. Being pushed on that same platform.

Jennifer Taylor-Skinner 34:27

Yeah. Okay. Well, you mentioned that go into Black Media going directly to Black Media. I think the Biden Harris administration has been trying to do that. And I think that they've gotten a lot of criticism for that for I guess, pandering is how people are framing it. But it is one way to get past all of this kind of disinformation content has to go directly to black media outlets. And isn't that something we want them to do to invest in these outlets? So?

Esosa Osa 34:55

Yes, yes. And if they get accused of pandering, guess what do it again And then and then do it again. Like, it's pandering because people don't see it enough. And so it's of course, the first couple of times you're on the Shade Room, people are gonna say you're pandering, but help. If you're the if you're there every day. I'm not telling the Biden campaign to be on the shade.

Remember, don't just be 100% clear about that. Yeah, no, it is it is necessary to keep going back to keep making an argument to keep kind of coming through for black folks. And like, if it folks, if folks say you're pandering, they're probably still gonna remember what you did for so

Jennifer Taylor-Skinner 35:39

Precisely, precisely. Well, so So OSA, it's been a pleasure, true pleasure to talk to you. This has been really informative. And just thank you so much for all the work that you you've been doing and for you know, bringing Onyx to, you know, to us, you know, to help us navigate this, you know, time very troubling time. Anyhow, thank you so much.

Esosa Osa 35:59

Absolutely. Thank you. Apologies for all my long answers. I appreciate it.

Jennifer Taylor-Skinner 36:02

It's fine.

Episode Summary

Jennifer Taylor and Esosa Osa discussed the prevalence of disinformation and misinformation in the 2020 election, particularly targeting Black voters. Esosa explained how disinformation campaigns were used to depress Black turnout in 2016 and 2020, and how they've evolved to be even more effective in the current election cycle. Jennifer highlighted the importance of understanding the difference between misinformation and disinformation, and how AI is making it harder to detect disinformation. Both speakers emphasized the need to support trustworthy messengers and media sources to combat disinformation and ensure the spread of accurate information.


Action Items

  • Invest in Black media and trusted messengers to counter disinformation.

  • Educate voters to be skeptical of narratives discouraging civic participation and check the sources of information.

  • Social media platforms need to be held accountable for the spread of misinformation on their sites.


Disinformation and misinformation in politics, particularly in the 2020 election cycle.

  • Esosa Osa discusses misinformation and disinformation impacting Black voters, evolving tactics in current election cycle.

  • Trump operation aimed to discredit elections by spreading false voter fraud claims.

  • In 2020, disinformation was a core part of voter protection efforts, as false narratives were spread through the broader counter disinfo community.

  • The Trump campaign actively amplified disinformation on large platforms, making it difficult to distinguish fact from fiction.

Disinformation campaigns targeting Black communities, including foreign actors using fake social media groups and channels to spread misinformation.

  • In 2016, a Russian-backed Facebook group sought to increase divisions within Black communities and push people into disengagement.

  • Foreign actors are testing disinformation tactics in black communities, not just battleground states, and understanding these communities is crucial to fighting back.

  • Jennifer Taylor-Skinner questions the authenticity of online groups and channels, suspecting nefarious actors may be behind them.

  • Esosa Osa explains that disinformation campaigns often use audiences within the targeted constituency to make their campaigns more effective.

Disinformation campaigns targeting Black voters, social media companies' role in spreading false information.

  • Creators are approached to create false narrative on YouTube, similar to promoting products or ideas.

  • Disinformation campaigns targeting Black voters are more sophisticated and harder to stop in 2024 than in 2020.

  • Esosa Osa highlights the rollback of policies that protected voters on social media platforms, leading to more nefarious uses of these platforms.

  • Twitter, Facebook, TikTok, and other platforms have eliminated 17 critical policies that helped keep disinformation in check, disproportionately affecting communities of color.

AI's impact on politics, including misinformation and micro-targeting.

  • Facebook removed guardrails after conservative campaign, bowing to political pressure.

  • AI-generated fake images, like Trump with Black voters, are concerns for democracy, but solutions unclear.

  • Esosa Osa highlights the potential of AI to create new content and replicate patterns, but also raises concerns about its misuse in generating inauthentic content that can mislead voters.

  • Esosa Osa warns about the power of AI to micro-target voters with highly customized content, potentially leading to confusion and manipulation during elections.

Regulating AI and social media to combat disinformation and protect marginalized communities.

  • Esosa Osa : AI can be a force for good, but regulation is needed to mitigate harm (24:32)

  • Jennifer Taylor-Skinner: TikTok regulation or ban may be necessary due to its potential harm (26:18)

  • Esosa Osa expresses concerns about TikTok's national security implications and potential for disinformation.

  • Esosa Osa believes that disinformation campaigns targeting Black voters are less sophisticated than previously thought, relying on guesswork and poorly created content.

  • The pool of potential targets for disinformation campaigns has become smaller and more powerful due to COVID-19 and new technologies like artificial intelligence.

Protecting Black voters from disinformation in 2024 election.

  • Be skeptical of narratives that dissuade black voters from using their power.

  • Invest in Black Media and Black trusted messengers for good information.

  • Esosa Osa emphasizes the importance of addressing disinformation in Black media outlets.

  • Jennifer Taylor-Skinner agrees, highlighting the need for consistent effort and investment in these outlets.

0 views0 comments


bottom of page