banner

Blog

Aug 07, 2023

La IA no acabará con la humanidad (todavía)

Michael CaloreLauren Goode

La idea de que la inteligencia artificial algún día dominará el mundo ha sido durante mucho tiempo un elemento básico de la ciencia ficción. Pero dados los rápidos avances en las herramientas de inteligencia artificial a nivel de consumidor, el miedo se ha sentido más cerca de la realidad en los últimos meses que nunca. La moda de la IA generativa ha despertado entusiasmo y aprensión en igual medida, dejando a muchas personas inquietas acerca de hacia dónde se dirige el futuro de esta tecnología claramente poderosa pero aún incipiente. Esta semana, por ejemplo, el grupo sin fines de lucro Center for AI Safety emitió una breve declaración en la que advierte que la sociedad debería tomar la IA como una amenaza existencial tan en serio como lo hacemos con la guerra nuclear y las pandemias.

Esta semana en Gadget Lab, hablamos con el escritor sénior de WIRED, Will Knight, sobre lo peligrosa que es realmente la IA y qué barandillas podemos poner para evitar el apocalipsis de los robots.

Lea la historia de Will sobre los expertos preocupados de que la IA represente una amenaza existencial para la humanidad. Lea toda la cobertura de WIRED sobre IA.

Will recomienda la novela Antimatter Blues de Edward Ashton. Mike recomienda almacenar sus alimentos con Bee's Wrap en lugar de productos de plástico de un solo uso. Lauren recomienda el podcast Succession de HBO, presentado por Kara Swisher.

Will Knight se puede encontrar en Twitter @willknight. Lauren Goode es @LaurenGoode. Michael Calore es @snackfight. Bling la línea directa principal en @GadgetLab. El programa es producido por Boone Ashworth (@booneashworth). Nuestro tema musical es de Solar Keys.

Siempre puedes escuchar el podcast de esta semana a través del reproductor de audio de esta página, pero si quieres suscribirte gratis para obtener todos los episodios, así es como:

Si está en un iPhone o iPad, abra la aplicación llamada Podcasts, o simplemente toque este enlace. También puede descargar una aplicación como Overcast o Pocket Casts y buscar Gadget Lab. Si usa Android, puede encontrarnos en la aplicación Google Podcasts con solo tocar aquí. Estamos en Spotify también. Y en caso de que realmente lo necesites, aquí está el feed RSS.

lauren goode: Miguel.

miguel calor: Lauren.

lauren goode: Estaba pensando que deberíamos hablar de nuestra propia extinción hoy.

lauren goode

lauren goode

julian chokkattu

Personal CABLEADO

miguel calor: ¿Quieres decir como periodistas o podcasters o como seres humanos?

lauren goode: Tal vez ambos.

miguel calor: Excelente.

lauren goode : Sí. Sí. Es otro podcast sobre IA, pero creo que la gente realmente querrá escuchar este.

miguel calor: Entonces, ¿puedo preguntar cuándo le daremos a la gente algo para escuchar que sea realmente esperanzador?

lauren goode: Bueno, en realidad creo que eso también es parte del espectáculo.

miguel calor: Vale genial.

lauren goode: Vamos a por ello.

[Se reproduce el tema musical de introducción de Gadget Lab]

lauren goode : Hola a todos. Bienvenido a Gadget Lab. Soy Lauren Goode. Soy un escritor senior en WIRED.

miguel calor : Y yo soy Michael Calore. Soy editor sénior en WIRED.

lauren goode : Y hoy nuestro compañero escritor, Will Knight, se une a nosotros desde Cambridge, Massachusetts. Will, es genial tenerte de vuelta en el Gadget Lab.

Will caballero : Hola. Es genial estar de vuelta.

lauren goode : Uno de estos días, Will, nos pondremos en contacto contigo y te diremos: "¿Te gustaría hablar sobre artilugios para gatos o algo así?". Pero por ahora está directamente en el ámbito de la cobertura de IA. Eso es de lo que te estamos invitando a hablar. Sí, estamos hablando de IA una vez más, pero esta vez es una declaración de un grupo de tecnólogos que advierten sobre una amenaza existencial para la humanidad. Fue la declaración de una oración que se escuchó en todo el mundo tecnológico a principios de esta semana. "Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear". Provino del Centro para la Seguridad de la IA, que es una organización sin fines de lucro, y fue firmado por figuras destacadas en el desarrollo de la IA. Ahora bien, obviamente esta no es la primera vez que se nos advierte sobre los peligros de la IA. Algunos de nuestros oyentes pueden recordar la pausa que cientos de los mejores tecnólogos e investigadores pidieron en marzo, y hasta ahora no ha resultado realmente en una pausa. Pero todas estas advertencias del día del juicio final nos hicieron preguntarnos, ¿qué debemos creer sobre el daño potencial de la IA y quién de estos investigadores y tecnólogos está ofreciendo la opinión más confiable en este momento? Will, queríamos traerte para hablar de esto. Primero, camine hacia atrás un poco. Cuéntanos un poco sobre esta declaración del Centro para la Seguridad de la IA. ¿Qué impulsó esto?

Will caballero : Sí, creo que lo que ha estimulado esto, así como la carta anterior que pide una pausa, en gran medida, son los avances que hemos visto en estos grandes modelos de lenguaje, más notablemente GPT-4, que potencia ChatGPT. Parte del rendimiento acaba de superar lo que esperaban las personas que trabajan en IA. Esperaban que algunas cosas tardarían 10 años en resolverse o que simplemente serían más intratables sin nuevas técnicas. Y de repente este modelo es capaz de hacer cosas que se asemejan a algún tipo de razonamiento y algún tipo de pensamiento abstracto, incluso si es discutible si eso es realmente lo que es. Definitivamente ha habido este momento en el que algunas personas, y he hablado con investigadores de IA que no estaban ni remotamente, no estaban muy preocupados por el riesgo existencial en absoluto y se dieron cuenta de esto. Esa es una de las cosas que está desencadenando esto, creo. Pero también debemos reconocer que existe este tipo de grupo dentro de la comunidad de investigación de IA que ha estado preocupado durante muchos años, hablando de riesgos existenciales, y esta es una especie de pregunta filosófica que han tenido. Y creo que esto está resurgiendo muchos de esos puntos de vista y estamos viendo un conjunto bastante diverso de perspectivas que se fusionan en una declaración de lectura realmente bastante alarmante. Creo que también es importante reconocer que hay muchos investigadores de IA que no están preocupados en absoluto por esta amenaza y ofrecen mucha más perspectiva y dicen que hay amenazas mucho más inmediatas que plantea la IA cuando se trata de cosas como sesgo o difundir información errónea o simplemente equivocarse en el contenido que proporciona, así como cosas como el cambio climático o simplemente otros problemas que son un riesgo mucho más inmediato para la humanidad, un riesgo más tangible. Creo que es una gran pregunta y es un poco complicado desempacar.

lauren goode

lauren goode

julian chokkattu

Personal CABLEADO

miguel calor : Así que ha sido un avance impresionante durante los últimos seis meses y cualquiera que haya usado alguna de estas herramientas como Bing Chat o Google Bard probablemente se haya quedado bastante impresionado por su capacidad. Pero hablando por mí mismo, no me ha hecho pensar en la guerra nuclear y la pandemia global y algunas de las advertencias que estos expertos e investigadores están señalando. ¿Cómo extrapolas eso? ¿Cómo destruirá la IA a la humanidad?

Will caballero : Esa es una gran pregunta, y sí, he estado tratando de entender esto yo mismo y he estado hablando con algunas personas que han tenido ese reconocimiento. Hay un tipo, Sam Bowman, que es un investigador de la Universidad de Nueva York que se unió a Anthropic, una de las empresas que trabaja en esto con la seguridad en mente, y tiene un laboratorio de investigación recién creado para centrarse en la seguridad. Y entonces, el argumento que tienen esas personas, o algunas personas como él, es que estos sistemas están mostrando signos de mayor inteligencia en algunos aspectos de lo esperado, y tienen objetivos que pueden alcanzar de maneras opacas que son difíciles de predecir. , a veces formas que sorprenden. Pero luego están extrapolando a partir de eso y diciendo algo más adelante, y es un largo camino, pero también dicen que no sabemos qué tan lejos porque las cosas se están moviendo más rápido. Entonces, durante años, las personas han estado trabajando en estos sistemas de inteligencia artificial y han podido hacerlos tropezar y decir: "Ah, así es como no coincide con la inteligencia humana". Con GPT-4, hay algunos casos en los que ya no pueden hacerlos tropezar y pueden hacer cosas en las que decían: "Bueno, no esperaba que hiciera eso en absoluto". Creo que esto desencadena una especie de idea visceral de algo que engaña a las personas y luego, cuando le pides que resuelva un problema y lo hace de una manera inesperada, imaginan que potencialmente tiene el objetivo de, no lo sé. No sé, hacer algo muy importante para una sociedad o algo así y luego ir a extremos realmente sorprendentes y arriesgados para hacerlo. Parece un gran salto o extrapolación dado que Bing Chat se rompe y se equivoca todo el tiempo. Pero creo que ese es el núcleo de esto, existe este tipo de idea de esta tecnología que es fundamentalmente diferente de alguna manera, que es algo inteligente y es más inteligente que nosotros y puede interactuar y, a veces, intentar e incluso burlar a las personas. Creo que de ahí viene.

lauren goode: ¿Es esa la misma preocupación o preocupación relacionada con que sea consciente?

Will caballero : No, no lo creo. Creo que la cuestión de la sensibilidad es, como, depende de a quién le preguntes. Hay algunas personas que argumentarán que todo tipo de sistemas pueden ser sensibles incluso si no son biológicos y hay un espectro de puntos de vista al respecto. Pero creo que mucha gente, al menos con la que he hablado, diría que existe este riesgo que no requiere sensibilidad. Puede salirse de control y hacer cosas muy impredecibles, independientemente de si realmente es sensible, si se puede decir que es sensible o no.

lauren goode

lauren goode

julian chokkattu

Personal CABLEADO

lauren goode : Will, estás hablando con muchos investigadores y tecnólogos que están en este espacio y, sinceramente, a veces se siente un poco como sillas musicales. Está bien, claro, la gente podría decir lo mismo sobre el periodismo, pero concentrémonos en la IA. Muchas de estas personas provienen de Google o de las mismas instituciones académicas o estaban en OpenAI, ahora están en Anthropic. Es realmente difícil determinar quiénes son los jugadores clave, además de los más obvios, y averiguar dónde están alineados y dónde divergen. ¿Quiénes diría que son las personas que hablan más abiertamente sobre la IA en este momento y de dónde provienen las opiniones más divergentes?

Will caballero : Bueno, quiero decir, algunas de las personas más francas en este momento son las de estas grandes empresas que tienen estos intereses creados. Es Sam Altman en OpenAI o ejecutivos en Google y Microsoft. Están siendo bastante francos, creo que por varias razones que no se refieren solo a las preocupaciones de la IA. Se siente como si hubiera, como dices, una especie de mundo ligeramente incestuoso de personas que han bebido el Kool-Aid de la IA sobrehumana siendo bastante cercana. Luego están personas como los investigadores que escribieron uno de los primeros artículos que apuntan a esto, así como Timnit Gebru y Margaret Mitchell en Google, quienes escribieron sobre los riesgos reales tangibles y actuales con grandes modelos de lenguaje, como inventar cosas y engañar. personas que estaban en Google en ese momento y luego fueron despedidas o se les pidió que se fueran, según la historia contada. Definitivamente veo este tipo de división de personas que están más enfocadas en los riesgos a corto plazo y un poco frustradas con esta visión de la angustia existencial a largo plazo, que parece provenir de la mayoría de las personas que tienden a tienen mucho poder e intereses financieros, y luego las personas que advierten sobre lo que deberíamos enfrentar hoy y les preocupa que eso sea una distracción. Entonces, sí, Geoffrey Hinton es un caso interesante porque es una de las personas más famosas en IA y una de las personas que desarrollaron el aprendizaje profundo o fueron pioneros en el aprendizaje profundo, que sustenta todo este aprendizaje automático que se incluye en estos modelos. Y recientemente cambió su posición y se preocupó más o se volvió más franco. Dejó Google y dijo que debemos comenzar a preocuparnos por los riesgos de esto. En realidad, creo, está preocupado por los riesgos a corto plazo, así como los riesgos a largo plazo, pero sus preocupaciones acerca de que la IA se vuelva loca y eventualmente tome el control o se salga de control ha ocupado todos los titulares y la gente se ha centrado en eso. . Pero creo que está un poco preocupado por ambos.

miguel calor : Will, ya hemos visto dos de estas grandes cartas abiertas advirtiendo sobre los riesgos inmediatos y futuros de la IA. ¿Cuándo vamos a ver la tercera y quién la va a escribir?

lauren goode

lauren goode

julian chokkattu

Personal CABLEADO

Will caballero : Sí, la semana que viene, supongo que lo firmarán todos los líderes mundiales. Creo que es un riesgo real que la gente no se tome en serio algunos de los problemas reales de la IA debido a esto. Quiero decir, está muy lejos. Entonces, si la gente está realmente preocupada por los problemas, alinearse con este tipo de cosas apocalípticas es una forma extrema de hacerlo. Puedo sentir que puede haber más reacciones negativas. Quiero decir, eso ya está sucediendo un poco, pero puedo ver que más personas simplemente no tomarán a estas personas tan en serio.

lauren goode : Sí, y como menciona su informe, Will, la carta en realidad no aborda los daños más inmediatos como el sesgo, la vigilancia o la información errónea, a los que se refirió anteriormente. Y, por lo tanto, debe preguntarse si centrarse en las grandes amenazas existenciales resta valor a las cosas a las que deberíamos prestar atención en este momento. Y creo que en realidad es una buena transición a nuestro próximo segmento. Tomemos un breve descanso y volveremos y hablaremos sobre la regulación de la IA.

[Romper]

lauren goode : A principios de este mes, una de las figuras más destacadas de la IA generativa, Sam Altman, que dirige OpenAI, testificó ante el Congreso sobre las implicaciones de productos como ChatGPT. No solo explicó en términos básicos cómo funciona esta tecnología, sino que en realidad pidió algún tipo de regulación, diciéndole al Congreso que debería trabajar con las empresas en este espacio para tratar de descubrir reglas y barandillas antes de que la tecnología se vuelva totalmente loca. Will, cuando leí por primera vez sobre esto hace un par de semanas, debo admitir que me preguntaba qué tan sinceros son estos llamados a la regulación. La industria de la tecnología tiene esta larga historia de posicionamiento en DC de tal manera que parece que quiere trabajar con los legisladores, pero en última instancia demasiada regulación aplastaría sus negocios. ¿Por qué OpenAI pide barandillas?

Will caballero : Sí, creo que es una especie de eco de lo que hemos visto antes hasta cierto punto. Y también hemos visto a Microsoft publicar un plan para regular la IA. Y Google está trabajando con la Unión Europea supuestamente en alguna brecha de regulación mientras elaboran las regulaciones adecuadas. Y creo que es una especie de, ellos saben que viene alguna regulación, por lo que decir: "Oh, le damos la bienvenida" les hace parecer que no son antagónicos y que también pueden llegar a darle forma. Creo que también vale la pena reconocer dos cosas que la gente en el gobierno realmente no sabe... en general no tiene idea de qué es esto. Y por eso están más que felices de ponerse hasta cierto punto en manos de los expertos. Los expertos que trabajan en él dirán: "Somos nosotros los que realmente entendemos esto y así es como lo regulas". De alguna manera tienen la ventaja cuando se trata de comprender la tecnología, pero también dentro del gobierno, he hablado con algunas personas en el gobierno y ven una tecnología, quiero decir, saben que hay riesgos, pero ver una tecnología que, según los economistas, podría ser enormemente valiosa para la productividad y la economía, hacer crecer la economía y que EE. UU. tiene una ventaja sobre sus rivales en eso. Así que no quieren hacer nada. Creo que lo que probablemente les preocupa más es poner un freno accidentalmente a la tecnología. Creo que la gente como Sam Altman probablemente sabe que no va a haber mucho apetito por regulaciones realmente duras en torno a la tecnología, pero también tratará de poner una buena cara y ayudar a darles forma, de verdad.

lauren goode

lauren goode

julian chokkattu

Personal CABLEADO

miguel calor : Además, siento que cuando el director ejecutivo de una gran empresa que juega un papel importante en el espacio tecnológico habla sobre la regulación, lo que realmente está haciendo es establecerse como el experto en el campo, lo que aumenta la importancia de su papel en la conversación. Los convierte en una voz que no puede ser ignorada. Los convierte en una fuerza que todo el mundo tiene que seguir. Realmente se trata de inflar su importancia para la sociedad y colocarlos en una posición de mayor poder, ¿no es así?

Will caballero : Sí es cierto. Eso es cierto. Lo cierto es que ni siquiera han publicado detalles de cómo funciona el más potente de estos modelos de IA GPT-4. Pueden ser los que digan: "Bueno, sabemos cómo controlar esto porque somos los únicos que tenemos acceso". Quiero decir, ese es uno de los problemas con eso. Creo que si hay algo que es poderoso, existe un argumento real de que debería ser posible que muchos científicos lo estudien y examinen. No han dicho que sienten que van a abrirlo y hacerlo más transparente.

lauren goode : Y ese es el meollo del asunto en Europa, con Google, ¿verdad? Todos estábamos cubriendo Google IO hace unas semanas, y una de las cosas que surgieron de eso es, oh, en realidad, Bard, su herramienta de chat generativa de IA, no está disponible en los países europeos. Y algunos de nuestros colegas se apresuraron a informarlo porque la forma en que Google lo presentaba era algo así como: "Aquí, aquí está esta herramienta que cambia el mundo". Pero resulta que hay grandes partes del mundo que no tienen acceso a él, y es por el marco regulatorio que existe en esos lugares.

Will caballero : Sí, esa es una gran pregunta: si EE. UU. puede adoptar algún tipo de regulación similar donde requiera más transparencia. Pero hoy leí una historia en la que decía que la administración de Biden está un poco dividida sobre esto, y hay muchas personas que rechazan la idea de que deberíamos hacer algo así porque, nuevamente, porque no quieren obstaculizar eso. Lo hemos visto con otras tecnologías, como los autos sin conductor. No querían regularlos en absoluto porque pensaban que iba a ser una tecnología enorme y asombrosamente poderosa, y que EE. UU. iba a tener la delantera. Es entendible. Pero ahora nos enfrentamos a muchas preguntas sobre cuán confiables son estos sistemas y tienen que introducir más regulaciones. Sí, creo que puede estar repitiendo eso.

lauren goode: ¿Cuál cree que es la probabilidad de que veamos una regulación real en torno a la IA en un futuro próximo?

Will caballero : Creo que veremos alguna regulación. Creo que está claro, que existe una especie de apetito, y una de las razones por las que en realidad todas estas cosas están en tensión es que EE. . Porque si usted es quien define la regulación, a menudo se adoptan en otros lugares. Y puede ser una especie de papel de liderazgo. Creo que habrá algunas regulaciones, pero creo que probablemente será bastante débil en los EE. UU., relativamente el más débil. Y sí, la pregunta de qué es realmente interesante. He estado hablando con algunos cineastas y escritores en Hollywood que están realmente interesados ​​en qué IA, qué tipo de amenaza puede representar, y están pensando en la falsificación, la falsificación de IA, y creo que es una de las más obvias. tal vez en torno a una especie de regulación de deepfakes, que requiera alguna restricción de deepfakes, o plataformas que no permitan que se distribuyan sin permiso. Pero ese es solo un pequeño aspecto de todo un tipo de pila de IA generativa.

lauren goode

lauren goode

julian chokkattu

Personal CABLEADO

miguel calor : Y creo que parte de esta regulación vendrá del sector privado. Plataformas que imponen reglas sobre lo que se puede publicar, empresas que imponen reglas sobre para qué se pueden usar sus herramientas. Y eso no es necesariamente regulación, es solo autocontención.

Will caballero : Correcto, y a menudo no es muy efectivo cuando las plataformas hacen eso o cuando las empresas dicen eso. No impide que la gente haga cosas. Y definitivamente viendo con estas herramientas de manipulación de imágenes, herramientas de síntesis de voz, que hay... Quiero decir, hay un montón de deepfakes de voz ahora circulando en Twitter y más y más manipulación de imágenes y videos, y cada vez es más fácil hazlo.

lauren goode: De hecho, grabamos un episodio de Gadget Lab hace solo unas semanas donde nuestro productor aquí, Boone, imitó nuestras voces y su propia voz, y fue aterradoramente bueno.

Will caballero: Oh, vaya.

lauren goode : Boone realmente, él tiene todo el poder aquí. Tiene todo este audio de nosotros que simplemente puede pasar a través de una herramienta gen-AI, y ese sería nuestro fin. Will, parece bastante optimista sobre la posibilidad de una regulación aquí en los EE. UU., lo que supongo que me sorprende de alguna manera. Tiendo a pensar que estas cosas se mueven con bastante lentitud. Y a su punto anterior de que tal vez algunos de nuestros congresistas no entienden completamente la tecnología, y ¿eso crea algún tipo de barrera para que las cosas avancen? Pero parece que piensas que esta es una posibilidad real.

Will caballero : Bueno, supongo que me habría equivocado al sonar optimista. Creo que soy optimista porque siento que hay mucho impulso para tratar de tener algo de regulación. Creo que ocurrirá algo en los Estados Unidos, pero sospecho que sería muy... Sospecho que probablemente sería bastante ineficaz si esa es una medida de mi...

lauren goode : Sí, salsa débil. Predicción de Will, regulación de salsa débil.

Will caballero : Pero, en general, me ha sorprendido la rapidez con la que la UE y China se han movido y ambos han estado a la vanguardia de la regulación. Y creo que existe esto, lo que lo está impulsando sería menos, si se mueve rápidamente, tal vez se trataría menos de "Oh, realmente queremos asegurarnos de que esto se haga de manera segura" y no solo de que EE. UU. tenga sus reglas. establecidos en ese tipo de discusión global. Puedes engañarme para decir algo mucho más articulado.

miguel calor : Ah, no te preocupes. Lo haremos. Lo haremos.

lauren goode: Estamos en ello.

miguel calor: Todo para lo que estamos usando esta grabación, es solo para capturar tu voz, para alimentar al modelo.

Will caballero : Bien. Eso tiene sentido. Solo hazme decir tantas cosas como sea posible.

lauren goode : Muy pronto estarás en este podcast todos los días. Haremos de este un podcast diario gracias a la IA. Está bien. Tomemos otro breve descanso y volvemos con nuestras recomendaciones muy humanas.

lauren goode

lauren goode

julian chokkattu

Personal CABLEADO

[Romper]

lauren goode : Will, me emociona escuchar la tuya, porque probablemente esté relacionada con los gatos. ¿Cuál es tu recomendación esta semana?

Will caballero : Ahora voy a decepcionarte. Ojalá tuviera otra sugerencia relacionada con los gatos. Quiero decir, yo solo, los gatos en TikTok siempre son... Mi feed es prácticamente todos los gatos.

lauren goode: Es tu opción.

Will caballero : Sólo gatos. DE ACUERDO. Voy a recomendar el libro Antimatter Blues de Edward Ashton. Es una continuación de Mickey7, que se está convirtiendo en una película. Se trata de un clon y él es una especie de clon desafortunado y sus aventuras en una colonia fuera del mundo. Oh, en realidad, también, ¿puedo recomendar un programa de televisión llamado Fired on Mars, que hizo un amigo mío? Se trata de un tipo que es un diseñador gráfico que trabaja en una colonia de Marte y lo despiden y se mete en todo tipo de líos.

lauren goode : ¿Está trabajando para Elon Musk? Porque eso tendría mucho sentido.

Will caballero: Tendría sentido.

lauren goode: ¿Y dónde puede la gente encontrar ese programa de televisión?

Will caballero: Eso está en HBO.

lauren goode: Ah, OK.

Will caballero : En realidad está en Max. Lo siento, lo entendí completamente mal.

miguel calor : Ah, no te preocupes. Todo el mundo lo entiende completamente mal.

lauren goode: Todavía lo llamamos HBO en este programa.

miguel calor : Sí. FKA HBO, ahora Max.

lauren goode : Eventualmente le daremos un símbolo. Bueno, ambos suenan encantadores. Gracias por esa recomendación. Esas recomendaciones, plural, Will. Mike, ¿cuál es tu recomendación?

miguel calor: Bueno, no tiene nada que ver con los viajes espaciales o la inteligencia artificial, pero voy a recomendar—

lauren goode: ¿Son pepinillos?

miguel calor: Oh, podría ser un pepinillo adyacente.

lauren goode: ¿Qué es esto?

miguel calor: Envoltura de abeja.

lauren goode: OK, di más.

miguel calor : DE ACUERDO. Esto es envoltura, ENVOLTURA.

lauren goode : Ah, OK. Pensé que era solo un montón de abejas—

miguel calor: ¿Rapear?

lauren goode : ... rapeando. ¿Has oído hablar de su última canción?

miguel calor : Oh, no. No no no no no.

lauren goode: OK lo siento.

miguel calor : Permítanme encerar filosóficamente. Esta es una envoltura de comida. Reemplaza la envoltura de plástico o las bolsas de plástico o cualquier otro tipo de plástico de un solo uso que pueda usar para conservar los alimentos en su refrigerador o en su cocina. Es una sábana de algodón cubierta con cera de abeja y aceites vegetales, y forma una especie de sello alrededor de lo que quieras proteger. Puedes ponerlo encima de un tazón de hummus o un tazón de salsa. He estado usando una pequeña para envolver medio calabacín o media cebolla. Si solo usa la mitad de un vegetal, normalmente solo lo envuelve con una envoltura de plástico. Pero el plástico es terrible como sabemos. Simplemente se asienta en los vertederos y se degrada muy, muy lentamente en trozos más pequeños de plástico que se abren paso en las vías fluviales y terminan en nuestros estómagos. Todos deberíamos dejar de usar plástico y aquí hay una excelente manera de hacerlo. Encontré estos, porque escribimos sobre ellos en WIRED, en realidad los recomendamos como uno de nuestros productos ecológicos favoritos, y necesitábamos tomarles una fotografía. Compré algunos en The Everything Store. Creo que son $17 por un paquete de tres. El paquete de tres viene con uno pequeño, uno mediano y uno grande, que es casi todo lo que necesita.

lauren goode

lauren goode

julian chokkattu

Personal CABLEADO

lauren goode: Depende del tamaño de las abejas.

miguel calor: Depende del tamaño de la... no.

lauren goode: Lo siento, mi corazón está acelerado, solo escuchar sobre esto.

miguel calor : Estoy seguro de que. Estoy seguro de que.

lauren goode : Sé que estos chistes probablemente duelen mucho. Por favor continua.

miguel calor: Me siento tan derrotado en este momento.

lauren goode: Usaré la envoltura de cera de abejas.

miguel calor: Sí, Bee's Wrap es como se llama.

lauren goode: Envoltura de abeja.

miguel calor : Hay varias empresas que hacen esto. Voy a recomendar Bee's Wrap porque es el que compré que me gusta. Y es un paquete de tres por menos de $20. Puedes comprarlo en las tiendas de comestibles hippies o simplemente puedes comprarlo en Internet. Pero es genial. Los utilizo todo el tiempo. Y diré que si los lava, lo que debe hacer entre usos, lávelos con agua fría, porque lavarlos con agua caliente los arruinará porque derretirá la cera de abejas y todo se escurrirá en tu lavabo

lauren goode: Esta recomendación son las rodillas de abeja.

miguel calor: Lauren, siento que debería salvar a todos de más juegos de palabras al preguntarte cuál es tu recomendación.

lauren goode : Oh, todo bien. Minuto de silencio por el final de la Sucesión. Excelente. Aquellos de ustedes que escucharon nuestro podcast saben que hace varias semanas les recomendé que vieran Succession, la cuarta temporada acababa de comenzar, y les dije que la vieran desde el principio para que puedan enredarse completamente con la familia Roy y sentirse emocionalmente apegados a esto. Programa de los domingos por la noche en el canal antes conocido como HBO. El final de temporada fue la semana pasada, fue una televisión épica, épica. Pero si te sentías como yo me sentía después, simplemente un poco vacío y quiero más, y ahora solo estoy desplazándome por Instagram buscando memes de Succession y enviando mensajes de texto a todos mis amigos y diciendo: "Oh, Dios mío, ¿viste lo que pasó? ¿al final?" Deberías escuchar el podcast Succession. Sí. Revelación completa, la persona que presenta este podcast, Kara Swisher, la conozco bastante bien. A veces ocupa mi lugar de estacionamiento, que es otra historia. Pero solía trabajar con Kara, es una entrevistadora de podcasts fantástica y tiene un podcast para HBO que es el podcast de seguimiento de Succession cada semana que puedes escuchar. Y así, esta semana tuvo entrevistas con Alexander Skarsgård, Jeremy Strong y Mark Mylod, dos de los actores del programa y luego el director. Tienes que comprobarlo. Es genial. Es justo el tipo de contenido adicional de Sucesión que necesita, si usted, como yo, estaba de duelo por el final del programa.

miguel calor : Así que esa es una buena recomendación. Y felicitaciones a Kara, y felicitaciones a todas las personas en periodismo que hacen estos podcasts sobre programas, pero estoy un poco superado, el programa tiene un podcast.

lauren goode

lauren goode

julian chokkattu

Personal CABLEADO

lauren goode: Tiendo a estar de acuerdo, excepto por este espectáculo.

miguel calor : Entonces, ¿este programa es el que te deja con ganas de más, y lo que más quieres es charlar sobre el programa? Y si pueden hacer un podcast bien producido, entonces eso es algo que escucharás.

lauren goode : Cierto, porque muchos de los podcasts sobre programas de televisión, y sin desacreditarlos, son programas de fans. Son un par de personas que están muy, muy interesadas en el programa como yo, y simplemente están sentados hablando de eso como amigos. De hecho, Kara habla con Brian Cox, o el director o el escritor, o algunas de las estrellas del programa. Entonces estás como, estás escuchando directamente de ellos sobre cómo desarrollan sus personajes y cómo estaban pensando en las tramas. Y realmente disfruto eso.

miguel calor: Así que Kara tiene eso que yo llamo la máquina, que es cuando ella te está entrevistando, sientes que sientes su presencia.

lauren goode : Has estado en su presencia. Hemos estado en su presencia, y lo sabes.

miguel calor: Es una entrevistadora muy enérgica.

lauren goode: Ella es.

miguel calor: Es una muy buena entrevistadora, en el sentido de que consigue que los entrevistados hablen sobre cosas de las que ningún otro entrevistador es capaz de hacerlos hablar.

lauren goode : Muchísimo. Es muy buena para identificar las debilidades de las personas y buscarlas en el podcast. Y es diferente, creo que cuando estás entrevistando a ejecutivos de tecnología, como lo hace ella todo el tiempo, donde se trata de personas en posiciones extremas de poder y estás como, estás golpeando y les estás haciendo preguntas muy difíciles. sobre cómo manejan sus negocios, en comparación con cuando también puedes ser un entrevistador pero un fanático y hablar con alguien que está completamente en su elemento creativo haciendo un programa. Creo que es una vibra ligeramente diferente.

miguel calor: Entonces, ¿es un tono suave para ti hacer uno de estos la próxima vez?

lauren goode : No, no tengo tiempo, la verdad. Me encantaría en un mundo ideal, sin duda. Pero ya tengo otro podcast, en caso de que no lo supieras, y ya estoy luchando por incluirlo todo en el día. No, no me ofrezco como voluntario para un podcast de programas de televisión, pero disfruto escuchándolos.

miguel calor: ¿Y si el coanfitrión es Alexander Skarsgård?

lauren goode : Estoy abajo. Estoy ahí. Me encanta el Skarsgård.

miguel calor: Perfecto.

lauren goode : Muy bien, bueno, eso es todo por nuestro programa. Muchas gracias, Will, por acompañarnos y desengañarnos de la idea de que en este momento nos dirigimos a un evento de extensión debido a la IA.

Will caballero: Bueno, ciertamente espero estar en lo cierto.

lauren goode : Yo también. Ambos lo hacemos. Y gracias a todos por escuchar. Si tiene comentarios y todavía está aquí, puede encontrarnos a todos en Twitter, solo consulte las notas del programa. Nos encantaría saber de usted. Nuestro productor es el excelente Boone Ashworth, el mismo hombre real. Adiós por ahora. Volveremos la próxima semana.

[Se reproduce el tema musical final de Gadget Lab]

Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Lauren Goode Michael Calore Lauren Goode Will Knight Lauren Goode Will Knight Michael Calore Will Knight Lauren Goode Will Knight Lauren Goode Will Knight Michael Calore Will Knight Lauren Goode Lauren Goode Will Knight Michael Calore Will Knight Lauren Goode Will Knight Lauren Goode Will Knight Michael Calore Will Knight Lauren Goode Will Knight Lauren Goode Will Knight Lauren Goode Will Knight Michael Calore Lauren Goode Michael Calore Will Knight Lauren Goode Lauren Goode Will Knight Lauren Goode Will Knight Lauren Goode Will Knight Lauren Goode Will Knight Lauren Goode Will Knight Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Caballero Lauren Goode
COMPARTIR