Tumgik
#kara swisher
elizabethminkel · 2 months
Text
For Roadmap (a fantastic publication on tech, culture, and work edited by the great @mollitudo) I got to review Kara Swisher's Burn Book, which was a very interesting read that left me struggling with the state of big tech right now, and the complicated idea of a "critical industry insider":
Swisher’s harshest critics—and she’s certainly heard from plenty of them since Burn Book hit shelves—are well within their rights to suggest that she hasn’t merely been an observer of Silicon Valley’s shift, but directly complicit in it. After all, the tech industry we know today didn’t suddenly emerge overnight. But to suggest Swisher hasn’t been a relatively critical insider—with all the limitations that implies—is also ahistorical. And if the memoir finds itself caught within these paradoxes, maybe it’s nothing so much as a perfect encapsulation of Swisher’s career. Because what is left for a self-styled truth-teller if no one in Silicon Valley particularly cares about the truth?
I'm so happy to be back in Roadmap—I got to write about the work of Ellen Ullman for their launch. And I'm working on a piece right now about depictions of tech (and specifically tech ~failure~) on TV!
20 notes · View notes
dk-thrive · 2 months
Text
This was, of course, the most important lesson I learned at a young age when my father died so suddenly. He thought he was headed for the big time and then he just fell over one day, and that has informed everything I've done since. Which is to say, I don't have time to wallow. You don't have time, either. Nobody has time.
— Kara Swisher, Burn Book: A Tech Love Story (Simon & Schuster, February 27, 2024)
16 notes · View notes
aunti-christ-ine · 1 month
Text
Tumblr media
6 notes · View notes
panicinthestudio · 7 months
Text
youtube
Yoel Roth warns new X CEO about Elon and company status, September 28, 2023
At Code 2023, Yoel Roth, former Head of Trust and Safety at Twitter joined Kara Swisher as a surprise guest an hour before Linda Yaccarino, current X CEO, took the stage. Roth recounted the death threats he received because of Elon Musk, X’s declining users and advertisers, and shared some advice for the platform’s new leaders. The two interviews back to back made for a meta-conversation about Twitter’s past and X’s future. The Verge
1 note · View note
kamreadsandrecs · 4 days
Text
0 notes
kammartinez · 10 days
Text
0 notes
buzzworthyradio · 1 month
Text
Owen Wilson, Judd Apatow, Patton Oswalt and MORE Added to 2024 Paleyfest Lineup!
We are less than a month away from the 41st Annual Paleyfest event at the Dolby Theatre. The star-studded event celebrates the greatest in television with engaging panels, screenings, and the chance to see your favorite stars up close and personal. The Paley Center for Media announced the latest talent additions to the already announced panels taking place next month. April 12th – The Morning…
Tumblr media
View On WordPress
0 notes
raspberryconverse · 5 months
Text
I'm way behind on my podcasts, but apparently Pivot had Matt Mullerweg, CEO of Automattic on the show and he talked briefly about Tumblr (about 54 min in).
He described acquiring Tumblr as like getting a puppy.
Tumblr media
I'd say that's accurate.
1 note · View note
branderpfindings · 7 months
Text
0 notes
dk-thrive · 2 months
Text
The need for next.
— Kara Swisher, Burn Book: A Tech Love Story (Simon & Schuster, February 27, 2024)
7 notes · View notes
back-and-totheleft · 10 months
Text
"I'm scared for the world"
Longtime filmmaker Oliver Stone has never been shy when it comes to contentious topics or going after accepted thinking. But his new documentary, Nuclear Now — which makes the case for nuclear energy as a silver (not magic) bullet against climate change and the literal end of the world — has a more hopeful tone than most of his earlier work. In the latest episode of On With Kara Swisher, Kara talks to Stone about the film, that shift, and what turns an infamous counterculture warrior into an advocate for nuclear-power plants. In the below excerpt, Swisher and Stone discuss the pros and cons of atomic energy, the decades-old efforts to demonize it, Hollywood’s role in that, and why, in Stone’s mind, more nuclear accidents might have actually done some good.
Kara Swisher: You’ve made over 30 films. You’ve told stories about Vietnam War, greed on Wall Street, figures like JFK, Nixon, Bush, Edward Snowden, Vladimir Putin, and now nuclear energy and climate change. What’s the through line of your career, at what you’re trying to build here with this body of work across complicated, often controversial topics?
Oliver Stone: Well, one doesn’t think about it in terms of — when you’re a young person, you don’t say I’m gonna be this at the end of my life. You just do it as you go, and the issues that concern you often concern the rest of the world. I mean, I have been very conscious of the news, I was raised that way in New York City by my father who was conscious of the news, and I’ve always been interested in who’s president and economic policy. My father was an economist — and trying to follow the trends. Nuclear energy, I mean, the concept of clean energy has been haunting for the last few years. Everyone’s talking about it since they’ve acknowledged climate change, since let’s say the 2000 period. And certainly, Al Gore’s film brought attention to it in 2006. So it’s scary. It’s — even if you don’t accept climate change and some people don’t — what, how, what is the best way to utilize energy in our country? And that could be conservation conscious? And in that regard, when you do the research and you go around and you talk to the scientists, people who know, who don’t just have opinions but who know, it comes out that nuclear energy is a must — is a must.
Kara Swisher: But what made you do that? You said most of your films unpack a lie. You say undiscovered lies that people won’t admit, I think in an interview. Explain the lie that got you motivated to do an entire documentary, a two-hour, almost two-hour documentary.
Oliver Stone: Well, I didn’t see, I didn’t see it as a lie when I started. It was simply to deal with this issue of where are we going? I mean, everyone was talking about taking pro-nuclear, anti-nuclear positions. It’s tedious to listen to these arguments because it’s a what if, what if, what if, kind of question mark. We want to move beyond that and try to solve the problem. So when I read this book called A Bright Future written by Josh Goldstein, who was a professor of international relations, and a nuclear engineer, scientist from Sweden called Stefan Swiss. They laid out in a very simple book, it was very clear — it’s very dry and hard to read — but it’s clear that we’re going to need a lot of nuclear energy in the next 30 years to meet the standards of what the IPCC calls — 2050 is going to be kind of a — breakpoint, when the earth is gonna no longer be able to recover from warming, and it will just keep warming itself.
Let’s say that’s true, but even if it were not true, I would still be saying, and these books would still be saying we need nuclear energy, and we had it, it worked.
Kara Swisher: Sure. I guess what I want to get to is like, why this? There’s crisis all over the  world, including misinformation, political partisanship. What prompted you to come to this. You read a book that you liked, right? Uh, there’s lots of books and lots of —
Oliver Stone: Because I’m scared. I’m scared for the world. I have children, hopefully I’ll have grandchildren. What’s my daughter and son gonna face? It’s the prospect of the earth getting worse, is what scares me. The earth should be getting better because we know, we know more and more and more and we have more tools that help us and we’re not. It’s not getting better. The carbon dioxide poisoning in the air, along with the methane gas poisoning in the air, is growing.
Kara Swisher: So this compelled you to make an argument that the answer is, the solution is nuclear energy. So I want you to explain why you think nuclear is the answer and compare it to solar, wind and other forms of renewable energy that we’ve been sold on. Cause it’s — you can get more out of it. More bang for your buck, so to speak.
Oliver Stone: Yeah. Well, because nuclear operates 24-7, I mean, it’s basically a capacity of about 90 percent plus. It’s always going night and day. Once it’s built, it’s expensive, [but] once it’s built, the maintenance is very smooth and and it runs and it runs and we take it for granted, and we took it for granted in our country. And we never really kind of realized it. We looked to one accident, which was Chernobyl, which terrified the world —
Kara Swisher: And Three Mile Island.
Oliver Stone: I understand why, but that one accident became the basis for closing up nuclear plants, not only in Germany, but even in the United States. Closing them early.
Kara Swisher: And the others, the others, solar, wind are not, renewables are not good enough. They’re too small.
Oliver Stone: Too small on the scale that we need. We need continent size. Plus it takes up a lot of land. you know, in Germany for example, they put up solar panels in a huge solar park, 400, almost 500,000 panels, reflecting the sun. Those panels produced about one tenth of what nuclear produced on five times the size of the land. And the same is kind of true about turbines too, because they take a lot of space.
You know, if we can do it, we should do everything we can. Everything we can.
Kara Swisher: I wanna talk about why we’re not using it. You make a case at the beginning of the documentary about this quite clear, and it’s largely around safety and fear of accidents, essentially. You yourself said you used to be afraid of nuclear energy. What convinced you that it was safe? Because a lot of our fears come from the nuclear bomb, right? So we equate the two.
Oliver Stone: Nuclear bomb and nuclear energy have been conflated into one monster. And the truth is the nuclear bomb is enriched with plutonium, and it makes it highly radioactive and it’s dangerous. It happened at Hiroshima and Nagasaki, which we set off, and people died of radioactive poisoning. But nuclear energy was made in a much lower-level way. The enrichment process is monitored highly by the IAEA, International Atomic Energy Commission. These plants are very, very safe. They’re built along these lines, very strictly in the United States, too strictly. You might argue that there should have been more accidents, because as in any new industry — chemicals, gas, oil, pipelines — there’s a process of learning. I think they did a pretty damn good job. They had one accident in the United States. It was at Three Mile Island and nobody died. The containment structure worked at Three Mile Island, and yet the panic was —
Kara Swisher: So you’re saying it became demonized in this, you know, a nuclear bomb —
Oliver Stone: It was demonized, yeah, by that film by Jane Fonda. That was — and I admire Jane very much for her Vietnam stand, as you know — but it made hysterical. The concept grew, this thing blows up, it’s gonna be a —
Kara Swisher: I’m curious, have you heard from Jane Fonda on this?
Oliver Stone: No, I haven’t, but I wish she would to look at it. I probably — it’s very hard to go back on your thinking and change your mind, but you have to listen to facts.
Kara Swisher: So what changed your mind? You said you were in that camp you were in, in that
Oliver Stone: Yeah, but I wasn’t — I assumed that people knew what they were talking about, but the truth is that the nuclear industry never really had a lobby. They never had, you know, what Wyoming has with coal, or Texas has with oil. They didn’t have a constituency. And no scientists, there was no Einstein around or guess, or Marie Curie, who found radium, to explain it to the people so that they would understand it. And the media got involved, and let’s be honest — they love hysteria. They love sensationalism. When you can talk about an explosion in your backyard the size of a nuclear bomb, it’s gonna make the news. But that’s not the case.
Kara Swisher: All right. We’ll get to the media in a second, but let’s play a clip from the documentary to start. This is President Eisenhower sharing his vision for nuclear energy in a speech to the UN in 1953, followed by your voiceover. Let’s play that.
President Eisenhower: This greatest of destructive forces can be developed into a great boon for the benefit of all mankind. Experts would be mobilized to apply atomic energy to the needs of agriculture, medicine, and other peaceful activity. A special purpose would be to provide abundant electrical energy in the power starved areas of the world. The United States pledges before you to devote its entire heart and mind to find the way by which the miraculous inventiveness of man shall not be dedicated to his death, but consecrated to his life.
Stone (narration): The entire assembly of delegates from around the world, including the Soviet Union, responded with warm and sustained applause.
Kara Swisher: Okay, we’re not exactly living in this nuclear-powered utopia he promised. You argue a few things are to blame. Let’s do a lightning round of some of these things you say have gotten in the way. Let’s start with Big Oil and economic interests here. How did they change things?
Oliver Stone: Well, as we explained in the film,  they knew that this was a threat to their livelihood and their profits. And the Rockefeller Foundation put out a study in 1956, which put its thumb on the scale, and their scientists that were paid for by —
Kara Swisher: This is the oil family.
Oliver Stone: — came out with this conclusion that any amount of radiation is harmful to the human body. This is a study that went right to the New York Times front page. The publisher of the Times was, incidentally, on the board of the Rockefeller Foundation. What happened is that that report is fraudulent and it has been denied by science. It’s been discredited. Low level radiation exists all over the world. It’s with us, its cosmic rays bombard the earth, the sun. We are we’re exposed to radiation, low-level radiation all day long. And people at high levels of altitude or in airliners are more exposed to it and so forth and so on.But when you have that kind of news and then it sticks around. So that perception was there from almost the beginning, from 1956.
Kara Swisher: So they created this lie. They created a lie, bad PR, they put bad PR against it by saying you could die.
Oliver Stone: Well there’s low level radiation and there’s high level radiation. High level radiation is dangerous. The bomb stuff is high level radiation because it’s enriched. The nuclear plant radiation is low level.
Kara Swisher: So Big Oil tried to scare people into thinking you could be mutated.
Oliver Stone: Well they did. And also they went on, in time and now they have declared themselves the perfect partner for renewables. You see why? Because we know that renewables, sun and wind do not work all the time. So what’s the backup? It’s immediately: gas.
Kara Swisher: Coal and gas. Okay. So you talk about the co-opting of environmental groups about a Big Oil’s anti-nuclear agenda, that they shifted. Initially the Sierra Club was pro-nuclear energy and then became anti, and including the Friends of the Earth who was funded by Big Oil. Talk about that.
Oliver Stone: Yeah. It’s very hard to follow the money because it’s always anonymously given, but definitely, Rod Adams in the film tells the story of the Arco investment in Friends of the Earth. Friends of the Earth was one of the first anti-nuclear environmental groups, around 1970. but the chief of Arco Oil & Gas wrote the first check for $200,000 to Friends of the Earth. They got into the business of protesting nuclear energy. Not all the environmental groups did at first, but certainly a lot of them did. Greenpeace followed in 1970. Greenpeace –
Kara Swisher: And so, because why? Because oil was controlling them? I think that’s hard to believe, but that they may have gotten their initial funding from that, but what happened to these groups?
Oliver Stone: Well, who knows what funding continued. We don’t know where the funds come from,, but the point is it, even if it’s not a conspiracy, it’s business as usual — which is the oil companies don’t want to have competition from nuclear.
Kara Swisher: From nuclear. Okay. So we’ve talked about the conflation of nuclear energy and nuclear war. And you point a finger at Hollywood for fear-mongering. How did the films and TV stoke the fear. Obviously, you’ve got Godzilla, that came out after the bomb, you know, Duck and Cover, and then The China Syndrome — all kinds of movies. There’s one movie after the next.
Oliver Stone: Yeah. You don’t forget Silkwood, which is wonderfully filmed with Meryl Streep.. These people are — the film business has been horrible to the nuclear industry. We had all the horror films in the fifties when I was growing up. You know, everything was radioactive. There was always the reason for two heads monsters that existed, fish that came out the sea. Everything that was horrible came from radiation. On top of that, you had this HBO series about Chernobyl, which was extremely successful around the world.
Kara Swisher: So why is Hollywood doing this? The fear — what you call fearmongering.
Oliver Stone: Because they don’t know. Because they don’t know. And it makes, you know, it makes for easy, it’s an easy, what do they call it? It’s a low hanging fruit.
Kara Swisher: You imagine there being a movie? Nuclear Energy Is Great.
Oliver Stone: Yeah, I could.
Kara Swisher: Well, you’ve just made it, but —
Oliver Stone: I had to make it as a documentary because it’s very difficult to — you know, at one point we played, Josh and I played with the idea of doing a scenario about a female scientist, cause that was popular, a female scientist saving the world by her courage and so forth.
Kara Swisher: Through nuclear energy.
Oliver Stone: But, you know, that becomes kind of melodramatic. It’s not really a one-person issue. It’s really a global issue. It can’t be solved by the United States or one side. It’s going to be solved by a consensus in the world.
Kara Swisher: But the popular idea is that nuclear energy is dangerous, is that no matter what, it’s more dangerous than anything else.
Oliver Stone: It was bad. Yeah.
Kara Swisher: Was bad. So there are justified fears we’ve had, as you said. Sure. Chernobyl was the worst one. The UN estimates 4,000 deaths related to radiation exposure. But you and Mr. Goldstein fear it’s that it’s been blown out of proportion.
Oliver Stone: Totally. Compared to Bopal, the deaths at Bopal
Kara Swisher: Which is chemical.
Oliver Stone: Right.  1980 — was it 4? And then in 1975 we had the hydropower dam in China. 250,000 people died. So there are accidents in any industry. The airplane industry had accidents and they were very dramatic. Nothing compared to what the car industry was turning out, as Ralph Nader pointed out. In other words, what’s scary and what’s dangerous are two different things.
Nuclear energy is scary. But compared to the more mundane —  oil, gas, coal — nothing compared to it.
Kara Swisher: So, Fukushima was another one. An earthquake and a tsunami hit in Japan, caused a nuclear disaster at an active power plant. As you point out, natural disasters are going to get more powerful and plentiful. So should we be more — not less — concerned about future Fukushima’s? Or do you think every energy source is at risk?
Oliver Stone:  It’s funny that you call — everyone says Fukushima is a nuclear disaster. It isn’t. It was a tsunami disaster, as we had in the South Pacific. That plant was badly, had a low sea wall, and it was flooded. The generators were flooded, the sea wall was penetrated, but the containment structure held. There was a radiation leak, but again, realize it’s low-level radiation. People were checked out. Nobody died from radiation poisoning. People died from mismanagement. Hospitalization, hospitals were emptied and they rushed, but the Japanese government panicked and closed it down for quite a few years. So it’s just kind of a contagion of fear.
Kara Swisher: it would be like closing down planes if there was one crash.
Oliver Stone: Yeah, like closing down planes or banning knives. I mean, what’s a knife for. A knife is a wonderful instrument. We use it for hundreds of things, but it can also kill people.
Kara Swisher: All right. But you just said something which is — I think a lot of people would get their back up — where you and Goldstein said in an interview, and you just said it: you think that it’s better for nuclear if there were more accidents.
Oliver Stone: Well, I — that’s a form of saying “Yes, we’d get more used to it.” Because people get spoiled. They want zero tolerance. Zero tolerance, in any industry, is almost impossible.
Kara Swisher: So you’re saying accidents normalize the tech, in other words.
Oliver Stone: Accidents normalize. Yes, they do. And, I mean, think about the waste from nuclear compared to ammonia from agriculture—
Kara Swisher: Lot of fear about that.
Oliver Stone: Compared to arsenic, compared to lead, compared to mercury, which is just thrown into our landscape.
Kara Swisher: So that radioactive waste is safer than all the other things that come out of oil, gas, solar panels.
Oliver Stone: And then they talk about a hundred thousand years from now. Okay. Right. But you know, even so, it decays, it decays to almost nothing. Radioactive waste doesn’t move. It’s been over glamorized and over sensationalized and people can always say: What if, what if? But at a certain point you’ve gotta say, “Look, we gotta take the “what if.” Zero tolerance — it’s not gonna happen. We gotta build.”
Kara Swisher: All right, let’s talk about that. The cost. Plants getting built across the U.S. are costing twice as much as their budgets promised. While other countries have been able to do it cheaper, South Korea has actually lowered its costs. Talk about how we get costs down, specifically the rule of SMRs, which are small modular reactors which move around.
Oliver Stone: Well, that is the American way. We we’re building innovative companies, private companies, with the support of the DOE, the Department of Energy — exploring small modular reactors. Bill Gates has invested a lot of money. It looks very promising — what they call a natrium. Natrium is a salt water reactor. Don’t ask me to explain all the details. I’m not a scientist, but it looks good. It cuts —
Kara Swisher: Would you have one in your home when they get small enough?
Oliver Stone: Absolutely. In a second.
Kara Swisher: Interestingly, I had a discussion with Bill Gates about this, who was a big investor in nuclear technology — which of course will add to the conspiracy theories around Bill Gates, and the chips and the vaccines and everything else. But it requires startups to be doing this innovation in nuclear energy.
Oliver Stone: Well we make the point that startups are an alternative to General Electric, because General Electric bills on a big scale, and as it was explained in the film, their nuclear division is a small part of their overall business. They make turbines, they make drilling equipment. It is a huge company, so their motivation to do nuclear is limited. But there’s the small companies that don’t — that need, that do this full time, that this is their motive to begin with. That’s the companies that hopefully will make a breakthrough in America.
Kara Swisher: Yeah. Also, Sam Altman, who is the head of ChatGPT, also has a big fusion [company] he’s working on.
Oliver Stone: Fusion is also for the future, but not now.
Kara Swisher: That’s his great interest. You do explore France as a kind of nuclear energy gold standard. 70 percent of the country gets its energy from nuclear, but there’s serious costs [due to] climate issues. Last year, half of France’s plants were offline for repairs. Unusually high temperatures put more pressure on the plants’ cooling systems. The state funded nuclear power operator, EDF, is billions of dollars in debt. So is France really the shining example?
Oliver Stone: Yes it is. It’s a wonderful example actually, because it’s been working for 50 years. They built 57 reactors, and they’ve been delivering. And France had very low electricity costs and they had very little CO2. But, you know, the French system has to be repaired because it’s been in business for 50 years, at a low price. But there are pipes and corrosion and so forth and so on. But that’s part of the business you —
Kara Swisher: What they did should be the map.
Oliver Stone: Absolutely. And Russia too. Russia built — has 20 percent of its electricity coming from nuclear and they have built some of the finest reactors ever seen. They have this new fast breeder [reactor], which we saw at Beloyarsk in the Ural mountains in the center of Russia, that fast breeder uses its own waste.
Kara Swisher: Of course, it’s paid for by their gas and oil revenues.
Oliver Stone: Well no it’s paid for by the state. That comes from part of their — but gas is no good. Russia is definitely — it’s sad that they do it. But China’s the one that’s building the most nuclear right now. They are investing, according to what I read, $440 billion into building 125 or so new reactors. They already have 50 —
Kara Swisher: Because they need, they, they’ve promised to get to zero emission.
Oliver Stone: Well, that’s one thing. 2038, they will have like all these reactors in place and they’ll be building more. They have promised the president Xi has promised to go to zero emission, by 2060.
Kara Swisher: Right. So we’re not in China, we’re not in Russia, we’re not in France. In the U.S., how do you get politicians behind the nuclear vision in a bipartisan way? Representative Alexandria Ocasio-Cortez recently went to visit the site of the Fukushima power plant and said she was there “to neither fearmonger nor sugarcoat.” So how do you get people in this country to be bipartisan about nuclear, especially when there’s oil and gas interest and coal interests? Joe Manchin just got it dropped into the debt ceiling bill — a coal plant.
Oliver Stone: Listen, I acknowledge it’s a huge problem to get people to change their ways, but the worst necessity is a mother of invention. The worse it gets, people will see. They know in their hearts that oil and gas are not disillusioned. But as the planet chokes, there will, there has to be change and people will realize maybe too late and they’ll be building nuclear as fast as they can by 2040 or even 2035. But as I said to you earlier, the nuclear business does not have a constituency. They’re not very good at promoting themselves. I talked to these people at Idaho Lab. They all wanna make the next solution, but they don’t have a clue as to how to advertise it like the oil people do or the coal people do.
Kara Swisher: Right.
Oliver Stone: Movies. Movies can help.
Kara Swisher: Let me ask you this. I think it’s a natural question: No nuclear company paid or invested in this movie?
Oliver Stone: No, no. This was done privately.
Kara Swisher: It was Participant [Media].
Oliver Stone: Participant helped us a lot. Jeff Skoll produced the Inconvenient Truth and he was anti-nuclear. We talked and two, three years ago he changed. He read everything he could on nuclear. He’s very bright man, much more scientific than I am, and he’s very happy with this film and wants it to penetrate — he’s doing everything he can to help us.
Kara Swisher: Okay, so you end the documentary on an optimistic note about the pace of technological innovation you’ve witnessed in our lifetime. Why so optimistic? You know, you’re very leaning into entrepreneurship. It’s a bit of a love letter to the nuclear —
Oliver Stone: You could say that at the ending, I want, you know — all I’ve seen in the last few years is dystopian stuff. The films, reading materials, it’s depressing. Everyone — I don’t understand why the movie business is just always about the death and destruction. I guess that makes money.
Kara Swisher: Yeah.
Oliver Stone: I really would like to see a change, and hope, given to the future. When this book I found — Bright Future is about hope and about changing the way we are doing our energy now. It’s doable. That’s what’s frustrating —
Kara Swisher: So, you know, it’s fascinating cause a lot of your movies are dystopian, whether it’s Wall Street, you know — Natural Born Killers really left me … was a bummer, was a fucking bummer, Oliver, I have to tell you.
Oliver Stone: Okay.
Kara Swisher: But I’m saying what shifted you to utopian? Because a lot of your films are darker, I would say. I don’t think they’re like dances in the park. I don’t —
Oliver Stone: No, I’m not known for a Disney approach.
Kara Swisher: Yeah, I don’t see Frozen here.
Oliver Stone: Believe me, I’ve always been an optimist because, sometimes you go to the darker places because you can handle it. You can take it and you don’t get depressed, but you can come out the other end and you’re better for it. That’s the truth about human existence. Suffering sometimes makes us wiser and better people. So the same thing applies in making, creating films like this. Somehow I have an innate optimism. Perhaps it comes from my mother. My father was a pessimist, actually, more than my mother — but my mother was really a believer in humanity. And I repeat that at the end of the movie because the scientist, Marie Curie, one of the greatest, brought us the discovery of uranium and what it could do, and Einstein and people, and even Eisenhower — as dark as it could get during the Cold War, he was still hoping that we could nuclearize our society. And we were close to doing that. I wish we had built more. But I’m optimistic. I’m an optimist.
-On With Kara Swisher podcast, Jul 7 2023
1 note · View note
levysoft · 1 year
Link
OpenAI è entrato nella stratosfera della Silicon Valley l'anno scorso con il rilascio di due prodotti di intelligenza artificiale, il generatore di immagini DALLE-2 e il chatbot ChatGPT. (La società ha recentemente presentato GPT-4, che può essere possibile la maggior parte dei test standardizzati, tra gli altri miglioramenti sul suo predecessore.) Sam Altman, co-fondatore di OpenAI, è diventato un volto pubblico della rivoluzione dell'IA, alternativamente evangelico e cauto sulla potente forza che ha contribuito a scatenare sul mondo.
Nell'ultimo episodio di On With Kara Swisher, Swisher parla con Altman delle molte possibilità e insidie del suo nascente campo, concentrandosi su alcune delle domande chiave che lo circondano. Tra questi: Come possiamo regolare al meglio una tecnologia che anche i suoi fondatori non capiscono appieno? E chi ha in gioco le enormi somme di denaro? Altman ha idee nobile su come l'IA generativa potrebbe trasformare la società. Ma come osserva Swisher, sembra i fondatori di tecnologia dagli occhi stellati che ha incontrato un quarto di secolo fa - solo alcuni dei quali sono rimasti fedeli ai loro ideali.
Kara Swisher: Hai iniziato Loopt. È lì che ti ho incontrato.
Sam Altman: Sì.
Swisher: Spiega cos'era. Non ricordo nemmeno, Sam. Mi dispiace.
Altman: Non è un problema. Beh, non ha funzionato. Non c'è motivo di ricordare. Era un'app sociale basata sulla posizione per telefoni cellulari.
Swisher: Giusto. Che è successo?
Altman: Il mercato non c'era, direi, è la cosa numero 1.
Swisher: Sì. Perché?
Altman: Beh, penso che non si possa forzare un mercato. Puoi avere un'idea di ciò che piacerà alla gente. Come start-up, parte del tuo lavoro è essere in anticipo, e a volte hai ragione su questo e a volte non lo sei. A volte fai Loopt; a volte fai OpenAI.
Swisher: Giusto, esattamente.
Altman: Continua a provare.
Swisher: Hai iniziato nel 2015 dopo essere stato a Y Combinator, e alla fine dell'anno scorso hai lanciato ChatGPT. Parla di quella transizione. Hai rinvigorito Y Combinator in molti modi.
Altman: Mi è stato consegnato un compito così facile con Y Combinator. Non so se l'ho rinvigorito. È stata una cosa super-grande quando ho preso il sopravvento.
Swisher: Quello che voglio dire è che penso che abbia avuto più risalto; hai cambiato le cose. Non intendo dire che stesse fallendo.
Altman: Penso di averlo ridimensionato di più e abbiamo intrapreso progetti a lungo termine e più ambiziosi. OpenAI, in realtà, è stato qualcosa che ho aiutato a iniziare mentre ero a YC. Abbiamo finanziato altre società, alcune delle quali sono molto coinvolto, come Helion, la società di fusione nucleare. Avevo sicuramente una cosa di cui ero appassionato e ne abbiamo fatto di più, ma ho solo cercato di mantenere la visione di P.G. e Jessica lì e ridimensionarla.
Swisher: Questo è Paul Graham.
Altman: Paul Graham.
Swisher: E Jessica. Ti evi spostato, però, su OpenAI. Perché è stato così? Quando sei in questa posizione, che è una posizione di alto profilo nella Silicon Valley - il re delle start-up, essenzialmente - perché andare via? È che volevi essere di nuovo un imprenditore?
Altman: No, non l'ho fatto.
Swisher: L'hai iniziato come organizzazione senza scopo di lucro.
Altman: Non sono una scelta naturale per un CEO; essendo un investitore, penso, mi si addice molto bene. Mi sono convinto che AGI sarebbe successo e sarebbe stata la cosa più importante su cui avrei mai potuto lavorare. Penso che trasformerà la nostra società in molti modi, e non farò finta che non appena abbiamo iniziato OpenAI, ero sicuro che avrebbe funzionato, ma è diventato chiaro negli anni successivi, e certamente entro il 2018-2019, che avevamo una vera possibilità qui.
Swisher: Cos'è stato che ti ha fatto pensare questo?
Altman: Un certo numero di cose. È difficile indicare solo uno, ma quando abbiamo fatto GPT-2, che era ancora debole in molti modi, potevi guardare le leggi di ridimensionamento e vedere cosa sarebbe successo. Ero tipo, “Hmm. "Questo può andare molto, molto lontano""." Sono diventato super-eccitato per questo. Non ho mai smesso di essere super-eccitato al riguardo.
Swisher: C'era qualcosa che hai visto che era in scala o qual era il ...
Altman: Stava guardando i dati di come prevedibilmente meglio potremmo rendere il sistema con più calcolo, con più dati.
Swisher: C'erano già state molte cose in corso su Google con la miniera. L'avevano comprato prima, proprio allora.
Altman: Sì. C'erano state un sacco di cose, ma in qualche modo non era proprio la traiettoria che si è rivelata quella che funziona davvero.
Swisher: Ma è interessante; ricordo che ne parlavamo nel 2015. Hai scritto che l'intelligenza artificiale sovrumana è probabilmente la più grande minaccia per la continua esistenza dell'umanità.
Altman: Sì. Lo penso ancora.
Swisher: Ci metteremo in questo. Perché l'hai scritto allora? Eppure l'hai anche definita la più grande tecnologia di sempre.
Altman: Credo ancora a entrambe queste cose. Penso che a questo punto più del mondo sarebbe d'accordo su questo. All'epoca, era considerata una posizione estremamente folle.
Swisher: Hai scritto che era probabilmente la più grande minaccia per la continua umanità esistente e anche una delle più grandi tecnologie che potrebbero migliorare l'umanità. Tira fuori quelle due cose.
Altman: Beh, penso che stiamo finalmente vedendo piccole anteprime di questo con ChatGPT, e soprattutto quando abbiamo pubblicato GPT-4. Le persone possono vedere questa visione dove - solo per scegliere un esempio tra le migliaia, tutti nel mondo possono avere un incredibile tutor di intelligenza artificiale sul loro telefono con loro tutto il tempo per qualsiasi cosa vogliano imparare. Voglio dire, è meraviglioso. Questo renderà il mondo molto migliore.
Il miglioramento creativo che le persone sono in grado di ottenere dall'utilizzo di questi strumenti per fare qualunque sia il loro lavoro creativo: è fantastico. L'empowerment economico, tutte queste cose - e di nuovo, lo vediamo solo nel modo più limitato, primitivo e larvale. Ma ad un certo punto è come, Beh, ora possiamo usare queste cose per curare le malattie.
Swisher: Qual è la minaccia? Perché quando cerco di spiegarlo a persone normali che non capiscono bene -
Altman: Non sono una persona normale?
Swisher: No. Non lo sei.
Altman: Sono così offeso.
Swisher: Non sono una persona normale. Ma quando internet è iniziato, nessuno sapeva cosa avrebbe fatto. Ma quando hai detto che l'intelligenza artificiale sovrumana è probabilmente la più grande minaccia, cosa intendevi con questo?
Altman: Penso che ci siano livelli di minacce. Oggi possiamo guardare questi sistemi e dire: “Va bene. Nessuna immaginazione richiesta, possiamo vedere come questo può contribuire agli exploit della sicurezza informatica, o alla disinformazione, o ad altre cose che possono destabilizzare la società”.
Certamente, ci sarà una transizione economica. Quelli non sono nel futuro; sono cose che possiamo guardare ora. A medio termine, penso che possiamo immaginare che questi sistemi divano molto, molto più potenti. Ora, cosa succede se un attore davvero cattivo arriva a usarli e cerca di capire quanto caos possono provocare al mondo o danni che possono infliggere? E poi, possiamo andare oltre a tutta la tradizionale sci-fi - cosa succede con gli scenari AGI in fuga o qualcosa del genere?
Ora, il motivo per cui stiamo facendo questo lavoro è perché vogliamo ridurre al minimo quegli aspetti negativi pur lasciando che la società ottenga i grandi vantaggi, e pensiamo che sia molto possibile farlo. Ma richiede, a nostro credo, questo continuo dispiegamento nel mondo, dove lasci che le persone si abituino gradualmente a questa tecnologia, dove dai alle istituzioni, ai regolatori, ai responsabili politici il tempo di reagire ad essa, dove lasci che le persone lo sentano, trovi gli exploit, l'energia creativa che il mondo inventerà - casi d'uso che noi
E così vogliamo vedere tutto il bene e il male, e capire come minimizzare continuamente il male e migliorare i benefici. Non puoi farlo in laboratorio. Questa idea che abbiamo, che abbiamo un obbligo e la società sarà meglio per noi costruire in pubblico, anche se significa commettere alcuni errori lungo la strada - penso che sia davvero importante.
Swisher: Quando le persone hanno criticato ChatGPT, vorresti dire: "Aspetta GPT-4". Ora che è uscito, ha soddisfatto le aspettative?
Altman: Molte persone sembrano davvero felici. Ci sono un sacco di cose in cui è ancora cattivo.
Swisher: Intendevo le tue aspettative.
Altman: Sì. Ne sono orgoglioso. Ancora una volta, una strada molto lunga da fare, ma come passo avanti, ne sono orgoglioso.
Swisher: di cosa sei più orgoglioso?
Altman: Beh, mi piace usarlo, ma più di questo, è molto gratificante andare a cercare GPT-4 su Twitter e leggere cosa ne stanno facendo le persone, le incredibili scoperte che le persone fanno su come usarlo per essere più produttivo, più efficace, più creativo, qualunque cosa di cui abbiano bisogno. È bello. È bello costruire qualcosa di utile per le persone.
Swisher: Hai twittato che a prima vista, GPT-4 sembra "più impressionante di quanto non sia in realtà". Perché è così?
Altman: Beh, penso che sia stato un problema con ogni versione di questi sistemi, non particolarmente GPT-4. Trovi questi lampi di brillantezza prima di trovare i problemi. E così, una cosa che qualcuno diceva di GPT-4 che mi è davvero rimasta impressa è che è il più grande creatore di demo del mondo. Perché puoi tollerare molti errori lì, ma se hai bisogno di molta affidabilità per un sistema di produzione, non è così bravo in questo. GPT-4 fa meno errori. È più affidabile, è più robusto, ma c'è ancora molta strada da fare.
Swisher: Uno dei problemi sono le allucinazioni, che è una parola inquietante, devo dire.
Altman: Come pensi che dovremmo chiamarlo invece?
Swisher: Errori, o qualcosa del genere. L'allucinazione sembra se fosse senziente.
Altman: È interessante. Allucinazione - quella parola non si innesca per me come senziente, ma cerco davvero di assicurarmi che stiamo scegliendo parole che sono nel campo degli strumenti, non nel campo della creatura. Perché penso che sia allettante antropomorfizzare questo in un modo davvero brutto.
Swisher: Esatto. Ma comunque, a volte un bot inventa le cose dal nulla. Le allucinazioni accadono. Citerà documenti di ricerca o articoli di notizie che non esistono. Hai detto che GPT-4 fa questo meno di GPT-3 - dovremmo dare loro nomi reali - ma succede ancora.
Altman: No. Sarebbe antropomorfizzante.
Swisher: È vero.
Altman: Penso che sia un bene che siano lettere più un numero.
Swisher: Non come Barbara?
Altman: Non credo.
Swisher: Comunque, ma succede ancora. Perché è così?
Altman: Questi sistemi sono addestrati a fare qualcosa, che è quello di prevedere la parola successiva in una sequenza. E così, sta cercando di completare un modello, e dato il suo set di allenamento, questo è il completamento più probabile. Detto questo, la diminuzione da 3 a 3,5 a 4, penso sia molto promettente. Lo monitoriamo internamente e ogni settimana siamo in grado di ottenere il numero sempre più basso e più basso. Penso che richiederà combinazioni di scala del modello, nuove idee -
Swisher: più dati.
Altman: Un sacco di feedback degli utenti.
Swisher: la scala del modello è più data.
Altman: Non necessariamente più dati, ma più calcolo gettato sul problema. Il feedback umano - le persone che segnalano gli errori per noi, sviluppando nuove tecniche del modello - può dire quando sta per andare fuori dai binari.
Swisher: persone reali che dicono solo "Questo è un errore".
Altman: Sì.
Swisher: Uno dei problemi è che ovviamente aggrava un problema di disinformazione molto grave.
Altman: Sì. Paghiamo gli esperti per contrassegnare, per passare attraverso ed etichettare i dati per noi.
Swisher: Queste sono taglie.
Altman: Non solo taglie, ma impieghiamo persone. Abbiamo appaltatori; lavoriamo con aziende esterne. Diciamo che abbiamo bisogno di esperti in questo settore per aiutarci a passare e migliorare le cose. Non vuoi solo fare affidamento totalmente su utenti casuali che fanno qualsiasi cosa, cercando di trollarti o qualcosa del genere.
Swisher: Quindi umani, più calcolo. Cos'altro?
Altman: Penso che ci sarà una nuova grande idea algoritmica, un modo diverso in cui alleniamo o usiamo o modifichiamo questi modelli, forse un'architettura diversa. Quindi penso che lo troveremo ad un certo punto.
Swisher: Significa cosa, per il non-techy?
Altman: Beh, potrebbero essere un sacco di cose. Potresti dire un algoritmo diverso, ma solo un'idea diversa del modo in cui creiamo o usiamo questi modelli che incoraggia, durante l'allenamento o il tempo di inferenza quando lo stai usando, che incoraggia i modelli a radicarsi davvero nella verità, essere in grado di citare le fonti. Microsoft ha fatto un buon lavoro lì. Stiamo lavorando su alcune cose.
Swisher: Parla dei prossimi passi. Come va avanti?
Altman: Penso che siamo su questo esponenziale a lungo termine, e non intendo solo per l'IA, anche se anche l'IA - intendo che come progresso cumulativo, umano, tecnologico - ed è molto difficile calibrarlo, e continuiamo ad adeguare le nostre aspettative.
Penso che se ti dicessimo cinque anni fa che oggi avremmo GPT-4, forse rimarresti impressionato. Ma se ti dicessimo quattro mesi fa dopo aver usato ChatGPT che oggi avremmo GPT-4, probabilmente non siamo così impressionati. Eppure è lo stesso esponenziale continuo, quindi forse dove arriviamo a un anno da ora, sei tipo, "Meh. È meglio, ma anche il nuovo iPhone è sempre un po' meglio.” Ma se guardi dove saremo tra dieci anni, allora penso che saresti piuttosto impressionato.
Swisher: Giusto. In realtà, i vecchi iPhone non erano impressionanti come quelli nuovi.
Altman: Certo, ma è stato un processo così graduale che a meno che tu non tenga quello originale e questo back-to-back -
Swisher: Ho appena trovato il mio l'altro giorno, abbastanza interessante. È un ottimo confronto.
Stai ricevendo critiche per essere riservato e hai detto che la concorrenza e la sicurezza lo richiedono. I critici dicono che è un cop-out e si tratta solo di concorrenza. Qual è la tua risposta?
Altman: Chiaramente non lo è. Non facciamo segreto che vorremmo essere uno sforzo di successo, e penso che vada bene e bene, e cerchiamo di essere chiari, ma abbiamo anche preso molte decisioni nel corso degli anni in nome della sicurezza che sono state ampiamente ridicolizzate nel momento in cui le persone arrivano ad apprezzare in seguito. Anche nelle prime versioni di GPT, quando abbiamo parlato di non rilasciare pesi del modello o di rilasciarli gradualmente perché volevamo che le persone abbiano il tempo di adattarsi - siamo stati ridicolizzati per questo, e sosendo totalmente quella decisione. Vorresti che premessimo un pulsante e l'open source GPT-4 e lasciassimo cadere quei pesi nel mondo?
Swisher: Probabilmente no.
Altman: Probabilmente no.
Swisher: Una delle scuse che la tecnologia usa sempre è che non lo capisci, dobbiamo tenerlo nella stanza sul retro. Spesso si tratta di concorrenza.
Altman: Beh, per noi è il contrario. Voglio dire, quello che abbiamo detto da sempre - e questo è diverso da quello che la maggior parte degli altri sforzi AGI ha pensato - è che tutti devono saperlo. L'AGI non dovrebbe essere costruito in un laboratorio segreto con solo le persone che sono privilegiate e abbastanza intelligenti da capirlo. Parte del motivo per cui lo implementiamo è, penso, che abbiamo bisogno dell'input del mondo, e il mondo ha bisogno di familiarità con ciò che sta accadendo, la capacità di pesare, di modellarlo insieme. Lo vogliamo. Abbiamo bisogno di questo input, e la gente se lo merita. Quindi penso che non siamo l'azienda segreta. Siamo proprio l'opposto. Abbiamo messo l'IA più avanzata al mondo in un'API che chiunque può usare. Non credo che se non assimo iniziato a farlo qualche anno fa, Google o chiunque altro lo farebbe ora. Lo userebbero solo segretamente per migliorare la ricerca su Google.
Swisher: Ma sei in competizione. E lasciatemi tornare da qualcuno che era uno dei vostri finanziatori originali, Elon Musk. È stato apertamente critico nei confronti di OpenAI, soprattutto perché è andato ai profitti: "OpenAI è stato creato come open source (che è il motivo per cui l'ho chiamata "Open" AI), una società senza scopo di lucro per fungere da contrappeso a Google, ma ora è diventata una società di closed source e massimo profitto efficacemente controllata da Microsoft. Non è affatto quello che intendevo.” Stiamo parlando di open source contro chiuso, ma che dire della sua critica che sei troppo vicino ai grandi?
Altman: Voglio dire, la maggior parte di questo non è vero. Ed Elon lo sa. Non siamo controllati da Microsoft. Microsoft non ha nemmeno un posto nel consiglio di amministrazione su di noi, siamo una società indipendente. Abbiamo una struttura insolita in cui possiamo prendere decisioni molto diverse da quelle che fa la maggior parte delle aziende. Penso che una buona parte di questo sia che non facciamo più tutto in open-source. Siamo stati chiari sul perché pensiamo di aver sbagliato lì in origine. Facciamo ancora un sacco di cose open-source. Open sourcing CLIP è stato qualcosa che ha dato il via a tutto questo mondo di immagini generative. Recentemente abbiamo open-source Whisper, abbiamo open-source strumenti, apriremo più cose in futuro. Ma non credo che sarebbe un bene in questo momento per noi open-source GPT-4, per esempio. Penso che causerebbe un certo grado di caos nel mondo, o almeno c'è una possibilità di questo - non possiamo essere certi che non lo farebbe. E mettendolo dietro un'API, siamo in grado di ottenere molti, non tutti, ma molti dei benefici che vogliamo da un ampio accesso a questa società per essere in grado di capire l'aggiornamento e pensarci. Ma quando troviamo alcuni degli aspetti negativi più spaventosi, siamo in grado di risolverli, e lo faremo.
Swisher: Come rispondi quando dice che sei una società a scopo di lucro chiuso? Lascerò fuori il controllo di Microsoft, ma in una forte partnership con Microsoft. Il che era contro quello che ha detto. Ricordo anni fa, questo era qualcosa di cui parlava molto ed era -
Altman: Era quale parte?
Swisher: “Oh, non vogliamo che queste grandi aziende lo gestisano. Se lo gestiscono, siamo condannati.” Era molto più drammatico della maggior parte delle persone.
Altman: Quindi siamo una società capped-profit. Abbiamo inventato questa nuova cosa dove abbiamo iniziato come organizzazione no profit -
Swisher: Spiegalo. Spiega cos'è un profitto limitato.
Altman: I nostri azionisti, che sono i nostri dipendenti e i nostri investitori, possono fare un certo ritorno. Le loro azioni hanno un certo prezzo a cui possono arrivare. Ma se OpenAI va e diventa una società multitrilione di dollari, quasi tutto questo scorre all'organizzazione no profit che ci controlla.
Swisher: Qual è il tappo?
Altman: Continua a variare poiché dobbiamo raccogliere più soldi, ma è molto, molto, molto e rimarrà molto, più piccolo di qualsiasi altro -
Swisher: Più piccolo di cosa?
Altman: ... azienda tecnologica.
Swisher: Cosa?
Altman: In termini di numero, davvero non lo so dalla mia testa.
Swisher: Ma non è significativo. L'organizzazione no profit ottiene una parte significativa delle entrate.
Altman: Beh, no, ottiene tutto oltre una certa quantità. Quindi, se non abbiamo molto successo, l'organizzazione no profit ottiene un po' lungo la strada, ma non otterrà alcuna quantità apprezzabile. L'obiettivo del cap profit è nel mondo in cui riusciamo a fare AGI e abbiamo un vantaggio significativo su tutti gli altri, potrebbe diventare molto più prezioso, penso, di forse qualsiasi azienda là fuori oggi. È allora che vuoi che quasi tutto fluisca in un'organizzazione no profit, credo.
Swisher: Voglio tornare a quello di cui parlava Elon. Era molto irremovibile all'epoca e, ancora una volta, eccessivamente drammatico, che Google e Microsoft e Amazon ci avrebbero ucciso. Penso che avesse quel tipo di parole, che ci doveva essere un'alternativa. Cosa è cambiato, secondo te?
Altman: Di?
Swisher: Per cambiare da quell'idea.
Altman: Oh, è stato molto semplice. Quando ci siamo resi conto del livello di capitale di cui avremmo avuto bisogno per farlo, il ridimensionamento si è rivelato molto più importante di quanto pensassimo, e abbiamo anche pensato che sarebbe stato importante allora. E abbiamo cercato per un po' di trovare un percorso verso quel livello di capitale come organizzazione no profit. Non c'era nessuno che fosse disposto a farlo. Quindi non volevamo diventare un'azienda completamente for-profit. Volevamo trovare qualcosa che ci permettesse di ottenere l'accesso e il potere del capitalismo per finanziare ciò che dovevamo fare, ma essere comunque in grado di adempiere ed essere governati dalla missione senza scopo di lucro. Quindi avere questa organizzazione no profit che governa la capped-profit LLC, dato il campo di gioco che abbiamo visto all'epoca, e penso ancora che vediamo ora, è stato il modo per arrivare al meglio di tutti i mondi. In una società davvero ben funzionante, penso che questo sarebbe stato un progetto governativo.
Swisher: Esatto. Stavo solo per fare quel punto. Il governo sarebbe stato il tuo finanziatore.
Altman: Abbiamo parlato con loro. Non solo sarebbero stati il nostro finanziatore, ma avrebbero iniziato il progetto. Abbiamo già fatto cose del genere in questo paese.
Ma la risposta non è solo dire: "Oh beh, il governo non fa più cose del genere, quindi ci siederemo e lasceremo che altri paesi gestiscano da noi e ottengano un AGI e ci facciano quello che vogliono". Guarderemo cosa è possibile in questo campo di gioco.
Swisher: Giusto. Quindi Elon era il co-chair, e tu hai molto rispetto per lui.
Altman: Lo faccio.
Swisher: Sono sicuro che hai pensato profondamente alle sue critiche. Gli hai parlato direttamente? C'era una pausa o cosa? Voi due eravate molto vicini, come ricordo.
Altman: Abbiamo parlato direttamente di recente.
Swisher: E cosa ne pensi delle critiche? Quando li senti da lui, voglio dire, può essere abbastanza in faccia sulle cose.
Altman: Ha il suo stile.
Swisher: Sì.
Altman: Per dire una cosa positiva su Elon -
Swisher: Sì, vorrei che lo volessi.
Altman: ... Penso che si preoccupi davvero di un buon futuro con AGI.
Swisher: Lo fa.
Altman: E ... voglio dire, è un coglione, qualsiasi altra cosa tu voglia dire di lui. Ha uno stile che non è uno stile che vorrei avere per me stesso.
Swisher: È cambiato.
Altman: Ma penso che gli importi davvero, e si sente molto stressato su come sarà il futuro -
Swisher: Per l'umanità.
Altman: Per l'umanità.
Swisher: Quando abbiamo fatto un'intervista a Tesla, ha detto: "Se questo non funziona, siamo tutti condannati". Che era un po' incentrato sulla sua auto, ma comunque aveva ragione. E questo era qualcosa di cui parlava quasi incessantemente, l'idea che l'IA prendesse il sopravvento e ci uccidesse, o forse non gli importa davvero. Poi decise che era come i formicai; ti ricordi quell'esempio?
Altman: Non ricordo la parte delle formiche.
Swisher: Ha detto: "Sai come, quando stiamo costruendo un'autostrada, ci sono le formiche e le superiamo senza pensarci?" E poi ha detto: "Siamo come un gatto, e forse ci daranno da mangiare e ci suoneranno, ma non si preoccupano davvero di noi". Andava avanti all' volta; cambiò e iterò nel tempo. Ma penso che la critica su cui sarei più d'accordo con lui è che le grandi aziende controllerebbero questo e non ci potrebbe essere innovazione nello spazio.
Altman: Beh, direi che siamo una prova contro questo.
Swisher: Tranne Microsoft, ed è per questo che penso -
Altman: Sono un grande investitore, ma ancora una volta, nemmeno un membro del consiglio di amministrazione. Come vero, piena indipendenza da loro.
Swisher: Quindi pensi di essere una startup rispetto a un partner gigante?
Altman: Sì, voglio dire, siamo una grande start-up a questo punto.
Swisher: E non c'è modo di essere un'organizzazione senza scopo di lucro che funzionerebbe?
Altman: Se qualcuno vuole darci decine di miliardi di dollari di capitale senza scopo di lucro, possiamo andare a farlo funzionare.
Swisher: Sì. O il governo, che non sono.
Altman: Ci abbiamo provato.
Swisher: Greg Brockman, il tuo co-fondatore, ha detto che avete commesso un errore creando l'IA con una citazione, "Pregiudizio politico di sinistra". Cosa ne pensi della sostanza di quelle critiche?
Altman: Sì. Penso che l'apprendimento di rinforzo dal feedback umano sulla nostra prima versione di ChatGPT fosse piuttosto di sinistra, ma ora non è più vero. È appena diventato un meme di Internet. Ci sono alcune persone che sono intellettualmente oneste su questo. Se vai a guardare GPT-4 e lo provi ... È relativamente neutro. Per non dire che non abbiamo più lavoro da fare. La cosa principale, però, è che non credo che tu abbia mai due persone d'accordo sul fatto che un sistema è imparziale su ogni argomento. E quindi dare agli utenti più controllo e anche insegnare alle persone come funzionano questi sistemi, che c'è una certa casualità in una risposta, che il peggior screenshot che vedi su Twitter non è rappresentativo di ciò che fanno queste cose, penso sia importante.
Swisher: Quindi, quando hai detto che aveva un pregiudizio di sinistra, cosa significava per te? E naturalmente correranno con quello - correranno con quello abbastanza lontano.
Altman: La gente gli darebbe questi test che ti segnerebbero nello spettro politico in America o qualsiasi altra cosa. E uno sarebbe tutto a destra, dieci sarebbe tutto a sinistra. Sarebbe come un dieci su tutti quei test, la prima versione.
Swisher: Perché?
Altman: Una serie di ragioni, ma in gran parte a causa dell'apprendimento di rinforzo dalle cose del feedback umano.
Swisher: Quale pensi sia la minaccia più praticabile per OpenAI? Ho sentito che stai guardando Claude con molta attenzione. Questo è il bot di Anthropic, una società fondata da ex persone OpenAI e sostenuta da Alphabet. È così? Lo registreremo martedì. BARD è stato lanciato oggi; sono sicuro che ne hai discusso internamente. Parla di quei due per iniziare.
Altman: Cerco di prestare un po' di attenzione a ciò che sta accadendo con tutte queste altre cose. sarà uno spazio incredibilmente competitivo. Penso che questa sia la prima nuova piattaforma tecnologica in un lungo periodo di tempo. La cosa di cui mi preoccupo di più non è nessuno di questi, perché penso che ci sia spazio per molte persone, e penso anche che continueremo a offrire il miglior prodotto. La cosa di cui mi preoccupo di più è che in qualche modo ci manca un approccio migliore. Tutti ci stanno inseguendo in questo momento su modelli linguistici di grandi dimensioni, addestrati allo stesso modo. Non mi preoccupo di loro, mi preoccupo della persona che ha un'idea molto diversa su come rendere un sistema più utile.
Swisher: Ma ce n'è uno che stai guardando più attentamente?
Altman: Non particolarmente.
Swisher: Davvero? In un certo senso non ti credo, ma davvero?
Altman: Le cose a cui faccio più attenzione non sono, come, il modello linguistico, start-up numero 217. È quando sento: "Queste sono tre persone intelligenti in un garage con una teoria molto diversa su come costruire AGI". Ed è allora che presto attenzione.
Swisher: Ce n'è uno a cui stai prestando attenzione ora?
Altman: Ce n'è uno; non voglio dirlo.
Swisher: Davvero non vuoi dirlo?
Altman: Non voglio davvero dirlo.
Swisher: Qual è il piano per fare soldi?
Altman: Abbiamo una piattaforma, che è questa API, e poi abbiamo un prodotto di consumo sopra di esso. E il prodotto di consumo è di 20 dollari al mese per il tipo di versione premium, e l'API, ci paghi solo per token, fondamentalmente come un metro.
Swisher: Le aziende lo farebbero a seconda di ciò per cui lo stanno usando, se decidono di distribuirlo in un hotel o ovunque.
Altman: Più lo usi, più paghi.
Swisher: Più lo usi, paghi. Una delle cose che qualcuno mi ha detto che pensavo fosse molto intelligente è che, se l'internet originale iniziasse su una base più pay-subscriber piuttosto che su una base pubblicitaria, non sarebbe così malvagio.
Altman: Sono entusiasta di vedere se possiamo davvero fare un business mass-scale, subscription-funded, not-ad-funded qui.
Swisher: Vedi annunci che finanziano questo? Questo per me è il peccato originale di internet.
Altman: Beh, abbiamo fatto la scommessa di non farlo. Non sono contrario, forse —
Swisher: Come sarebbe?
Altman: Non lo so. Sta andando alla grande con il nostro modello attuale; ne siamo felici.
Swisher: Hai anche gareggiato contro Microsoft per i clienti. Stanno cercando di vendere il tuo software attraverso le loro attività Azure Cloud come componente aggiuntivo.
Altman: In realtà, va bene. Non mi interessa.
Swisher: Va bene. Ma stai anche cercando di vendere direttamente a volte agli stessi clienti. Non ti interessa?
Altman: Non mi interessa.
Swisher: come funziona? Influisce sulla tua linea di fondo in questo modo?
Altman: Ancora una volta, siamo un'azienda insolita qui, non abbiamo bisogno di spremere ogni dollaro.
Swisher: l'ex Googler Tristan Harris, che è diventato un critico di come la tecnologia è sviluppata in modo sciocco, ha presentato a un gruppo di regolatori a D.C. Ero lì. Tra i punti che ha fatto è che hai essenzialmente dato il via a una corsa agli armamenti dell'IA. Penso che sia quello che mi ha colpito di più. Meta, Microsoft, Google, Baidu si stanno affrettando a spedire bot di intelligenza artificiale generativa mentre l'industria tecnologica sta perdendo posti di lavoro. Microsoft ha recentemente licenziato il team di etica e società all'interno della sua organizzazione AI, che non è un tuo problema, ma sei preoccupato per una corsa agli armamenti guidata dal profitto?
Altman: Penso che abbiamo bisogno di una regolamentazione e abbiamo bisogno di norme del settore su questo. Abbiamo passato molti, molti mesi - e in realtà davvero gli anni che ci sono voluti per diventare bravi a realizzare questi modelli - a prepararli prima di metterli fuori. Ovviamente è diventato un segreto in un certo punto di vista nella Silicon Valley che abbiamo fatto fare GPT-4 per molto tempo e c'erano molte persone che erano del tipo: "Devi rilasciarlo ora; lo stai trattenendo dalla società. Questa è la tua IA chiusa, qualunque cosa.” Ma volevamo solo prenderci il tempo per farlo bene. C'è molto da imparare qui, ed è difficile, e in effetti, cerchiamo di rilasciare cose per aiutare le persone a farlo bene, anche i concorrenti. Sono nervoso per le scorciatoie che altre aziende ora sembrano voler prendere.
Swisher: Come?
Altman: Oh, mi precipito fuori questi modelli senza tutte le caratteristiche di sicurezza costruite.
Swisher: Quindi, quando dici preoccupato, cosa puoi fare al riguardo?
Altman: Beh, possiamo e cerchiamo di parlare con loro e spiegare: "Ehi, ecco alcune insidie ed ecco alcune cose che pensiamo tu debba fare bene". Possiamo continuare a spingere per la regolamentazione, possiamo cercare di stabilire le norme del settore. Possiamo rilasciare cose che pensiamo aiutino altre persone a raggiungere sistemi più sicuri più velocemente.
Swisher: Puoi impedirlo? Lascia che ti legga questo passaggio da una storia su Stanford che lo fa. Hanno fatto uno dei loro modelli; 600 dollari, penso che sia costato loro mettere su -
Altman: Hanno addestrato un modello per 600 dollari?
Swisher: Sì, l'hanno fatto. Ti mando la storia. Quindi cosa può impedire praticamente a chiunque di creare la propria IA da compagnia ora per un centinaio di dollari o giù di lì e di addestrarla come preferisce? I termini di servizio di OpenAI diranno che non è possibile utilizzare l'output da modelli sviluppati da servizi che competono con OpenAI?
Altman: Uno degli altri motivi per cui vogliamo parlare al mondo di queste cose ora è che questo sta arrivando. Questo è totalmente inarrestabile e ci saranno molte ottime versioni open-source nei prossimi anni, e arriverà con meravigliosi benefici e alcuni problemi. Abituondo le persone a questo ora, facendo in modo che le autorità di regolamentazione inizino a prenderlo sul serio e ci pensino ora, penso che sia la nostra migliore strada da percorrere.
Swisher: in quasi tutte le interviste che fai, ti viene chiesto dei pericoli del rilascio di prodotti di intelligenza artificiale e dici che è meglio testarlo gradualmente, quando la posta in gioco è relativamente bassa. Puoi approfondire? Perché la posta in gioco è bassa adesso? Perché non sono alti in questo momento?
Altman: “Relativamente” è la parola chiave.
Swisher: Giusto. Cosa succede alla posta in gioco se non è controllata ora?
Altman: Beh, questi sistemi sono ora molto più potenti di quanto non fossero qualche anno fa, e siamo molto più cauti di quanto non fossimo qualche anno fa in termini di come li distribuiamo. Abbiamo cercato di imparare ciò che possiamo imparare. Abbiamo apportato alcuni miglioramenti e abbiamo trovato modi in cui le persone vogliono usarlo. In questa intervista, e ho perfettamente di capire perché, penso che stiamo parlando principalmente di tutti gli aspetti negativi, ma -
Swisher: No, ti chiederò dei lati positivi.
Altman: Ma abbiamo anche trovato il modo di migliorare i lati positivi imparando. Quindi mitigare gli aspetti negativi, massimizzare gli aspetti positivi. Suona bene. E non è che la posta in gioco sia più così bassa. In effetti, penso che siamo in un mondo diverso rispetto a qualche anno fa. Penso ancora che siano relativamente bassi a dove saremo tra qualche anno. Questi sistemi hanno ancora classi di problemi, ma ci sono cose che sono totalmente fuori portata di cui sappiamo che saranno capaci. E gli insegnamenti che abbiamo ora, il feedback che otteniamo ora, vedere i modi in cui le persone hackerano, il jailbreak, qualsiasi cosa - è super-valutato.
Sono curioso di sapere come pensi che stiamo andando.
Swisher: Penso che tu stia dicendo le cose giuste.
Altman: Non dicendo. Come pensi che stiamo andando mentre guardi la traiettoria delle nostre uscite?
Swisher: Penso che la ragione per cui le persone sono così preoccupate - e penso che sia una preoccupazione legittima - sia perché il modo in cui i primi di Internet sono stati lanciati, era "gee-whiz" quasi tutto il tempo: "Gee-whiz, guarda questi ricchi. Non è fantastico?” E hanno perso ogni singola conseguenza, non ci hanno mai pensato. "Ricordo di aver visto Facebook Live e ho detto: ""Beh, che dire delle persone che si uccidono a vicenda su di esso?" E gli assassini? E i suicidi? Che ne dici di ...” E mi hanno chiamato un peccato.
Altman: Un peccato.
Swisher: E io sono tipo: "Sì, sono un peccato. Ho appena notato che quando le persone si fanno avanti con gli strumenti, tendono ...” E questa è la cosa di Brad Smith. È uno strumento o un'arma. La stessa cosa è successa con i fondatori di Google. Stavano cercando di comprare Yahoo molti anni fa, e ho detto: "Almeno Microsoft sapeva che erano teppisti". E mi hanno chiamato e mi hanno detto: "È davvero doloroso; siamo davvero gentili". Ho detto: “Non sono preoccupato per te, sono preoccupato per il prossimo ragazzo. Non so chi gestisca la tua azienda in 20 anni con tutte quelle informazioni su tutti.”
E quindi penso di essere un peccato. E quindi se non sai cosa sarà, mentre puoi pensare a tutte le cose incredibili che farà e probabilmente sarebbe un netto positivo per la società - anche il netto positivo non è così grande a volte, giusto? Internet è un netto positivo come l'elettricità è un netto positivo. È una citazione famosa: "Quando inventi l'elettricità, inventi la sedia elettrica". E quindi quale sarebbe la cosa più grande qui? Supera alcuni dei pericoli?
Altman: Penso che questa sarà la tensione fondamentale che dobbiamo affrontare con cui dobbiamo lottare, con cui il campo nel suo complesso deve lottare, la società deve lottare.
Swisher: Soprattutto in questo mondo in cui viviamo ora, che penso che possiamo essere tutti d'accordo che non è andato avanti. Sta girando un po' all'indietro, in termini di autoritari che usano questo -
Altman: Sì. Sono super nervoso per questo.
Swisher: Qual è la cosa più grande che può farti in mente? Ora io e te non siamo abbastanza creativi da pensare a tutte le cose -
Altman: Non siamo, nemmeno vicini.
Swisher: Cosa, dal tuo punto di vista - e non fare tesine, non fare battute di papà. Che ne pensi?
Altman: È quello che pensavi che avrei detto per la cosa più grande?
Swisher: No, per niente. Ma mi sto stancando di questo. Non mi interessa che possa scrivere un comunicato stampa. Va bene, sembra fantastico. Comunque non li leggo.
Altman: Ciò di cui sono personalmente più entusiasta è aiutarci ad espandere notevolmente le nostre conoscenze scientifiche. Sono convinto che molti dei nostri progressi in avanti derigano dall'aumento delle scoperte scientifiche per un lungo periodo di tempo.
Swisher: in qualsiasi area?
Altman: Tutte le aree. Penso che sia proprio ciò che ha spinto l'umanità in avanti. E se questi sistemi possono aiutarci in molti modi diversi, per aumentare notevolmente il tasso di comprensione scientifica, curare le malattie è un esempio ovvio. Ci sono così tante altre cose che possiamo fare con -
Swisher: l'IA si è già mossa in quella direzione, piegando le proteine e cose del genere.
Altman: Quindi questo è quello di cui sono personalmente più entusiasta. Ma ci saranno anche molte altre cose meravigliose. Mi hai chiesto quale fosse il mio e -
Swisher: C'è una cosa insolita che pensi sarà fantastica, che hai già visto che sei tipo: "È piuttosto figo?"
Altman: Usare alcune di queste nuove applicazioni AI tutorlike è come: "Vorrei avere questo quando stavo crescendo. Avrei potuto imparare così tanto, e molto meglio e più velocemente.” E quando penso a come saranno i bambini oggi quando avranno finito la loro istruzione formale e a quanto possono essere più intelligenti, capaci e meglio istruiti di noi oggi, ne sono entusiasta.
Swisher: Stai usando questi strumenti?
Altman: Sì.
Swisher: direi che le informazioni sulla salute per le persone che non possono permetterselo sono probabilmente quelle che penso siano più -
Altman: Questo sarà trasformativo. Abbiamo visto che anche per le persone che possono permetterselo, questo in qualche modo sarà migliore.
Swisher: 100 per cento.
Altman: E il lavoro che stiamo vedendo lì da un gruppo di prime aziende sulla piattaforma, penso che sia notevole.
Swisher: Quindi l'ultima cosa è la regolamentazione. Internet non è mai stato regolato da nessuno, davvero, tranne forse in Europa, ma in questo paese, assolutamente no. Non c'è un disegno di legge sulla privacy, non c'è un disegno di legge antitrust, ecc., va avanti all' avanti, non hanno fatto nulla. Ma l'UE sta considerando di etichettare ChatGPT ad alto rischio. Se succede, porterà a restrizioni significative sul suo utilizzo, e Microsoft e Google stanno facendo pressioni contro di esso. Cosa pensi che dovrebbe succedere?
Altman: Con la regolamentazione dell'IA in generale o con l'IA?
Swisher: Questo, quello ad alto rischio.
Altman: Ho seguito lo sviluppo della legge sull'IA dell'UE, ma è cambiato. Ovviamente è ancora in fase di sviluppo. Non so abbastanza della versione attuale per dire questa definizione di cosa sia l'alto rischio e questo modo di classificarlo, questo è quello che devi fare. Non so se direi che è un bene o un male. Penso che vietare totalmente questa roba non sia la risposta giusta, e penso che non regolare affatto questa roba non sia nemmeno la risposta giusta. E quindi la domanda è: finirà nel giusto equilibrio? Penso che se l'UE sta dicendo: "Nessuno in Europa può usare ChatGPT". Probabilmente non è quello che farei, ma se l'UE sta dicendo: "Ecco le restrizioni su ChatGPT e qualsiasi servizio simile". Ci sono molte versioni di questo che potrei immaginare che sono super-sensibili.
Swisher: Dopo il salvataggio senza salvataggio della Silicon Valley, hai twittato: "Abbiamo bisogno di più regolamentazione sulle banche". E poi qualcuno ti ha twittato: "Ora dirà, abbiamo bisogno di loro sull'IA". E hai detto: "Abbiamo bisogno di loro sull'IA".
Altman: Voglio dire, penso che SVB sia stato un caso insolitamente brutto, ma anche se i regolatori non lo stanno cogliendo, cosa stanno facendo?
Swisher: L'hanno preso, in realtà. Stavano dando avvertimenti.
Altman: Stavano dando avvertimenti, ma spesso c'è un audit - "questa cosa non è del tutto giusta". È diverso dal dire —
Swisher: No, era "Devi fare qualcosa". Semplicemente non hanno fatto nulla.
Altman: Beh, avrebbero potuto. Voglio dire, i regolatori avrebbero potuto prendere più di sei mesi fa.
Swisher: Sì. Quindi questo è ciò che accade molte volte, anche in aree ben regolamentate, che le banche sono paragonate a internet. Di che tipo di regolamenti ha bisogno l'IA in America? Scomili. So che hai incontrato regolatori e legislatori.
Altman: Sì, ho fatto un viaggio di tre giorni a D.C. all'inizio di quest'anno.
Swisher: L'hai fatto. Quindi dimmi quali pensi fossero i regolamenti e cosa stai dicendo loro, e li trovi esperti come gruppo? Penso che siano più esperti di quanto la gente pensi.
Altman: Alcuni di loro sono abbastanza, abbastanza eccezionali. Penso che la cosa che vorrei vedere accadere immediatamente sia solo molta più comprensione di ciò che stanno facendo aziende come la nostra, aziende che si stanno formando al di sopra di un certo livello di capacità come minimo. Una cosa che penso possa accadere ora è che il governo dovrebbe solo avere informazioni sulle capacità delle nostre ultime cose, rilasciate o meno, come sono le nostre procedure di audit interno e gli audit esterni che utilizziamo, come raccogliamo i nostri dati, come stiamo facendo un teaming di questi sistemi, cosa ci aspettiamo che accada, cosa su cui potremmo essere totalmente sbagliato. Potremmo colpire un muro in qualsiasi momento, ma i nostri documenti interni della road-map, quando iniziamo una grande corsa di formazione, penso che ci potrebbe essere un'idea del governo in merito. E poi se questo può iniziare ora ... penso che una buona regolamentazione richieda molto tempo per svilupparsi. È un vero processo. Possono capire come vogliono avere una supervisione.
Swisher: Reid Hoffman ha suggerito un pannello blue-ribbon in modo che imparino, imparino su questa roba, che -
Altman: I pannelli vanno bene. Potremmo farlo anche noi, ma quello che voglio dire è che i revisori dei conti del governo sono seduti nei nostri edifici.
Swisher: il membro del Congresso Ted Lieu ha detto che ci deve essere un'agenzia dedicata specificamente alla regolamentazione dell'IA. È una buona idea?
Altman: Penso che ci siano due cose che vuoi fare. Questo è fuori dalla mia area di competenza, ma lo stai chiedendo, quindi ci proverò. Penso che persone come noi che stanno creando questi sistemi molto potenti che potrebbero diventare qualcosa di correttamente chiamato AGI ad un certo punto -
Swisher: Spiega di cosa si tratta.
Altman: Intelligenza generale artificiale, ma ciò che la gente intende è appena al di sopra di una soglia dove è davvero buona. Questi sforzi probabilmente hanno bisogno di un nuovo sforzo normativo e penso che debba essere un organismo di regolamentazione globale. E poi le persone che stanno usando l'IA, come abbiamo parlato, come consulente medico, penso che la FDA possa dare probabilmente un'ottima regolamentazione medica, ma dovranno aggiornarla per l'inclusione dell'IA. Ma direi che la creazione dei sistemi e avere qualcosa come un'IA/EA che regola questa è una cosa, e poi avere i regolatori del settore esistenti che fanno ancora la loro regolamentazione -
Swisher: La gente reagisce male a questo, perché gli uffici di informazione, è sempre stato un vero problema a Washington. Chi dovrebbe dirigere quell'agenzia negli Stati Uniti?
Altman: Non lo so.
Swisher: Va bene. Quindi una delle cose che accadranno, però, è che quelle meno intelligenti, di cui ce ne sono molte, sequestreranno cose come hanno fatto con TikTok, forse meritatamente, ma altre cose. Come Snap ha rilasciato un chatbot alimentato da GPT che presumibilmente ha detto a un quindicenne come mascherare l'odore di erba e alcol e a un 13enne come impostare l'umore per il sesso con un adulto. Si impadroniranno di questa roba. E la domanda è: chi è responsabile se questo è vero, quando un adolescente usa quelle istruzioni? E la sezione 230 non sembra coprire l'IA generativa. È un problema?
Altman: Penso che avremo bisogno di una nuova legge per l'uso di questa roba, e penso che la responsabilità dovrà avere alcuni quadri diversi. Se qualcuno sta modificando i modelli da solo, penso che dovrà essere l'ultima persona che lo tocca ha la responsabilità, e questo è -
Swisher: Ma non è piena immunità che la piattaforma sta ottenendo -
Altman: Non credo che dovremmo avere piena immunità. Ora, detto questo, capisco perché vuoi dei limiti su di esso, perché vuoi che le aziende siano in grado di sperimentare questo, vuoi che gli utenti siano in grado di ottenere l'esperienza che vogliono, ma l'idea che nessuno abbia limiti per l'IA generativa, per l'IA in generale, sembra super-sbagliato.
Swisher: Ultima cosa, cercando di quantificare l'impatto che avrai personalmente sulla società come uno dei principali sviluppatori di questa tecnologia. Ci pensi? Pensi al tuo impatto?
Altman: Io, OpenAI o io, Sam?
Swisher: Tu, Sam.
Altman: Voglio dire, spero di avere un impatto positivo.
Swisher: Pensi all'impatto sull'umanità, al livello di potere che ne deriva anche?
Altman: Sì, penso a cosa farà OpenAI per molte persone e all'impatto che avrà OpenAI.
Swisher: Ma pensi che sia fuori dalle tue mani?
Altman: No. Ma è molto ... la responsabilità è con me a un certo livello, ma è molto uno sforzo di squadra.
Swisher: Quindi, quando pensi all'impatto, qual è la tua più grande speranza e qual è la tua più grande preoccupazione?
Altman: La mia più grande speranza è che creiamo questa cosa. Siamo uno dei tanti che contribuiranno a questo movimento. Creeremo un'IA, altre persone creeranno un'IA e parteciperemo a questa rivoluzione tecnologica che credo sarà molto maggiore in termini di impatto e beneficio di qualsiasi altro prima. La mia visione del mondo è che sia questa grande, lunga, rivoluzione tecnologica, non un gruppo di più piccole, ma faremo la nostra parte. Saremo uno dei tanti in questo momento, e sarà davvero meraviglioso. Questo eleverà l'umanità in modi che ancora non possiamo immaginare pienamente. E i nostri figli, i figli dei nostri figli, staranno molto meglio del meglio di chiunque di questo periodo. E saremo solo in un mondo radicalmente migliorato. Vivremo una vita più sana, più interessante, più appagante; avremo abbondanza materiale per le persone, e contribuiremo e metteremo nel nostro -
Swisher: La tua parte.
Altman: La nostra parte di questo.
Swisher: Suoni in modo allarmante come le persone che ho incontrato 25 anni fa, devo dire. Hanno parlato così. Molti di loro lo hanno fatto, e alcuni di loro hanno continuato ad essere così. Molti di loro non l'hanno fatto, purtroppo. E poi l'avidità è filtrata, il denaro è filtrato, il potere è infiltrato ed è diventato un po' più complesso.
Voglio concentrarmi su di te con la mia ultima domanda. Sembra che ci siano due tue caricature, una che ho visto sulla stampa, un genio fanciullesco che aiuterà a sconfiggere Google e a inaugurare Utopia. L'altro è che sei un irresponsabile, woke-tech-overlord Icarus che ci porterà alla nostra scomparsa.
Altman: Devo sceglierne uno? Quanti anni devo avere prima di poter abbandonare la qualifica di ragazzo?
Swisher: Oh, puoi essere un ragazzo. Tom Hanks è ancora fantose.
Altman: Tutto bene. E qual è stato il secondo?
Swisher: Sai, Icaro, signore, signore della tecnologia, si è svegliato.
Altman: La parte di Icaro che mi piace.
Swisher: È ancora fantolo.
Altman: Penso che ora ci sentiamo adulti.
Swisher: Potresti essere adulto, ma il ragazzo viene sempre messo su di te. Non ti chiamo mai da ragazzo. Penso che siate adulti.
Altman: Icaro significa che stiamo scherzando con qualcosa che non capiamo appieno?
Swisher: Sì.
Altman: Beh, stiamo scherzando con qualcosa che non capiamo appieno. E stiamo cercando di fare la nostra parte nel contribuire al percorso responsabile attraverso di esso.
Swisher: Va bene, su questo -
Altman: Ma non credo che nessuno di questi due.
Swisher: Non sei nessuno di quelli.
Altman: Voglio dire —
Swisher: Quindi descriviti allora. Descrivi cosa sei.
Altman: Fratello della tecnologia.
Swisher: Oh wow. Andrai per la tecnologia —
Altman: Sto scherzando. Penso solo che sia un meme così divertente. Non so come descrivermi. Penso che sia così che mi chiameresti.
Swisher: No, non lo farei.
Altman: No?
Swisher: 100 per cento no.
Altman: Tutto bene.
Swisher: Perché ora è un insulto. È diventato un insulto. Ti chiamerei una sorella tecnologica.
Altman: Lo prendo. Possiamo lasciarlo su quella nota?
Swisher: Lasciamo su quella nota.
Altman: Tutto bene.
Swisher: Ho un'altra domanda veloce. L'ultima volta che abbiamo parlato, stavi pensando di candidarti come governatore. Stavo pensando di candidarmi a sindaco. Non mi candidarò a sindaco. Hai intenzione di candidarti ancora per il governatore?
Altman: No. Penso di fare la cosa più incredibile che possa immaginare. Non voglio davvero fare nient'altro. È faticoso, ma lo adoro.
Swisher: Va bene. Sam Altman, grazie mille.
Altman: Grazie.
0 notes
kamreadsandrecs · 2 months
Text
0 notes
kammartinez · 2 months
Text
0 notes
ihearthes · 1 year
Text
.
1 note · View note
robpegoraro · 1 year
Text
Weekly output: lunar construction, Verizon 5G goals, Twitter trust-and-safety warning, 1Password upgrade, Comcast rate hikes, Google Messages encryption
Weekly output: lunar construction, Verizon 5G goals, Twitter trust-and-safety warning, 1Password upgrade, Comcast rate hikes, Google Messages encryption
My week has an unusual road trip coming up–to Wallops Island, Va., where Rocket Lab plans to conduct the first U.S. launch of its Electron rocket Friday evening. This is a much smaller vehicle than the others I’ve been privileged to see lift off, but driving to the Eastern Shore’s Mid-Atlantic Regional Spaceport is also a lot simpler than traveling to the Kennedy Space Center. In addition to the…
Tumblr media
View On WordPress
0 notes