laopiniondemurcia.es

Murcia, cada vez m?s friki

2019-11-22

Servicios de utilidadInicioOcioEl Sal?n del Manga inaugura su und?cima edici?n con una previsi?n de 40.000 visitantes hasta el pr?ximo domingo Los dibujantes Salva Esp?n y Dani Acu?a y la mangaka Minari Endo, protagonistas. Sí, Murcia es cada vez más friki; no, no es ningún tipo de conclusión precipitada, ahí están los datos: de 35.000 a 40.000. Hablamos, claro, del número de visitantes que espera hasta el domingo el Salón del Manga de la capital del Segura, que inauguró ayer su nueva edición en los alrededores del Auditorio Víctor Villegas y el Recinto Ferial de la Fica, con el edificio anexo del Palacio de Congresos como centro neurálgico de la fiesta otaku. Pues la jornada –que, como es habitual, se fue animando con el transcurrir de las horas– estuvo ligeramente pasada por agua, por lo que buena parte de los cosplayers que allí se dieron cita este viernes se refugiaron allí durante las primeras horas del salón, que una vez más acogió un enorme market con todo tipo de merchandising seriéfilo, cinéfilo y gamer; espacios para jugar (y competir) a los títulos de PlayStation, Switch y móvil más reclamados por la comunidad –gran recibimiento el del nuevo Mario Kart Tour para smartphones–, y exposiciones, talleres, encuentros y conferencias relacionadas con la cultura japonesa. Y es que hasta el domingo están programadas más de 350 actividades, con especial interés por la presencia durante todo el fin de semana de la mangaka japonesa Minari Endo, responsable de series de éxito como Maria Holic; de Daniel Acuña, dibujante internacional de Marvel Comics –que estará hoy durante prácticamente toda la jornada en la Mangateka –, y la estrella koreana de pop Hyemin, que presentará esta tarde (19.15 horas) su último disco en uno de los seis conciertos que se celebran en el escenario del Auditorio Regional Víctor Villegas. Aunque el protagonista, ayer, fue Salva Espín, que se hinchó a firmar limones y cómics de su querido Deadpool. Otro de los atractivos de esta undécima edición del Murcia se Re-Manga es el homenaje a One Piece, actualmente el manga y anime de más éxito a nivel mundial, que se puede visitar en la planta baja del edificio anexo –y en la sala de proyecciones–, así como la exposición de la artista cartagenera María Buigues dedicada a Harry Potter y Animales fantásticos y dónde encontrarlos. La autora impartirá esta tarde (16.00 horas) una charla sobre técnica y experiencia y dispondrá de un espacio en la zona de artistas donde atender a todos sus fans. La consejera Esperanza Moreno y los concejales Pedro García Rex y Jesús Pacheco fueron los encargada de abrir oficialmente el salón un par de horas después de la apertura de puertas. Durante su intervención, la responsable de Educación y Cultura señaló que este evento «contribuye a que muchos de nuestros jóvenes muestren una mayor atracción por la cultura, haciendo crecer su interés por la literatura, la música o las artes plásticas. De hecho, 3.000 alumnos de 20 centros educativos están hoy aquí para disfrutar de esta actividad», apuntó Moreno.

elplural.com

Black Friday : 10 productos de merchandising friki populares en Amazon

2019-11-22

Amazon cuenta en su catálogo con los mejores pósteres, figuras, tazas, pegatinas y demás artículos para los aficionados del cine y las series Elviernes 29 de noviembrese celebra en España, y en todo el mundo, elBlack Friday. Un evento global que se ha convertido en el arranque de la campañanavideñapor las promociones y descuentos que ofertan las empresas dedicadas al comercio, ya sea de forma física o electrónica. Según una encuesta, el75% de los españolesparticipará en elBlack Friday, que muchos de los comercios alargan durante todo el fin de semana. Por su parte,Amazon, que aparece como uno de los gigantes del comercio electrónico y el preferido para muchos de los usuarios, ha anunciado que, además de mantener el Black Friday desde el 22 de noviembre hasta el 29, abrirá unapop up storepor segundo año consecutivo enMadrid. Una semana de descuentos que los más aficionados al cine y las series tiene que aprovechar para aumentar su colección friki. Desde pósteres a camisetas, pasando por tazas, funkos, figuras, láminas y pegatinas. Todo un mundo de posibilidades se abre teniendo en cuenta la cantidad de éxitos de los que hemos sido espectadores a lo largo de este año 2019: estrenos como la tercera temporada de Stranger Things, la última de Juego de Tronos, la cuarta temporada de Rick y Morty, la tercera de La Casa de Papel, la quinta de Peaky Blinders, el lanzamiento de Watchmen... Y en cuanto al cine, el nivel de expectación que ha rodeado Vengadores: Endgame, así comoSpiderman: Lejos de casa, la increíble acogida de Joker, y la esperada Star Wars, con su Episodio VIX: El ascenso de Skywalker, que llega a lo cines el jueves 19 de diciembre. 1. PEGATINAS DE STRANGER THINGS Nada menos que 100 pegatinas de la serie que ha mantenido en vilo a cientos de miles de espectadores. Con imágenes que van desde la primera temporada hasta el final de la tercera. Los stickersse adhieren al móvil, al portátil, carpetas, libretas, tablets... 2. EL FELPUDO DE JUEGO DE TRONOS Aunque el final de la serie rompió muchos corazones, lo cierto es que el recuerdo que nos queda de Invernalia y la familia Stark siempre será maravilloso. Los más honrados y valientes de toda la historia, acogieron en el norte a todo aquel que venía a visitarles, ya fuera con buenas o con malas intenciones. Con este felpudo en la puerta de tu casa, te sentirás más cerca de los protagonistas, de los últimos Stark . 3. LA PETACA DE RICK Y MORTY Que Rick es un gran aficionado a la bebida... es algo que todos sabemos. Así que ¿qué mejor que una petaca para ampliar la colección de merchandising de esta serie? Con un mensaje en el reverso que lo deja muy claro: Si lo encuentras, devuélveselo a Rick Sanchez y adjunta su dirección: Dimensión completa C-137 . 4. EL TRAJE DE LA CASA DE PAPEL Todos hemos querido formar parte del equipo de atracadores que dirige El Profesor. Eso es un hecho innegable. Para meternos en su piel necesitamos el uniforme oficial: mono rojo y máscara de Salvador Dalí. Ahora podrás hacerte con el traje y triunfar en tu próxima fiesta de disfraces. 5. LA TAZA DE PEAKY BLINDERS Por orden de los Peaky Blinders , esta es la mejor frase posible para empezar el día si eres un auténtico fan de los hermanos Shelby. Ya tomes café, té o un inocente chocolate caliente, sabrá mejor en esta taza. 6. EL PÓSTER DE WATCHMEN Con tan solo cinco episodios, ya estamos metidos en el distópico mundo que nos presenta la serie de Watchmen. Su protagonista Hermana Noche es, probablemente, la heroína del momento. Este póster de colores vibrantes puede ser la primera pieza de la colección de una serie que parece que tiene mucho futuro y éxito por delante. 7. EL FUNKO DE THOR EN VENGADORES: ENDGAME Si hay un personaje en la última y esperada entrega de Vengadores que nos impactó a todos, fue sin duda el dios Thor con un nuevo look un tanto peculiar: pelo largo, sandalias y bastantes kilos de más. Se ha convertido en una de las imágenes más recordadas y divertidas que nos deja esta impresionante saga. Para los fans, una buena colección de funkos de superhéroes, no estará nunca completa sin este pequeño y cabezón Thor, dios (muy desmejorado) del trueno. 8. LAS GAFAS HEREDADAS DE SPIDERMAN: LEJOS DE CASA Con un nudo en el estómago, veíamos en la segunda película de Spiderman, como Tony Stark le pasaba el testigo a Peter Parker a través de sus míticas gafas de sol. Que poco tienen que ver con unas gafas normales y corrientes. Aunque no cuenten con la tecnología que tienen la originales, lo cierto es que el diseño de estas gafas es muy elegante y vienen con dos fundas. Además, ¿quién no quiere ser el próximo Iron Man? 9. LA SUDADERA DE JOKER Mítico, icónico, y también extravagante, Joker ha marcado un antes y un después en el cine de superhéroes (y de villanos). Esta sudadera imita el traje con el que Joker baja por las escaleras haciendo su extraño baile, que se ha convertido en una imagen que ha dado la vuelta al mundo. Para los que se atrevan, los más descarados y fans acérrimos del Joker, esta prenda no puede faltar en su armario. 10. EL CASCO DE KYLO REN DE STAR WARS: EL ASCENSO DE SKYWALKER La acogida de el último episodio de la saga Star Wars llega a España el 19 de diciembre y no podemos estar más emocionados. Con el dilema interno aún vigente tanto de Kylo Ren (Ben Solo) como de Rey, el cuerpo nos pide ponernos en su piel. Un casco controvertido que recuerda al de su abuelo Darth Vader, nos atrae hacia el lado oscuro de la Fuerza .

elonce.com

Barby Silenzi embarazada: Al Polaco le gusta mi cuerpo y se pone más cachondo

2019-11-22

La bailarina habló de cómo transita la dulce espera y sorprendió al dar detalles de su intimidad con su pareja. Es un bebé que viene con dos papás que están muy, muy enamorados, y que lo buscaron , afirmó. Desde que se conoció la linda noticia sobre el embarazo de Barby Silenzi (35), quien espera a su primer hijo junto al Polaco (32), la bailarina comparte dulces postales en las redes y habla sin tapujos de su intimidad. Indagada por el ritmo sexual que mantiene con su pareja en la dulce espera, Barby se sinceró en una nota que brindó para la revista Paparazzi: Es el mismo de siempre. Muy, muy bueno, diría. Estamos muy bien . Me gusta el cuerpo de la mujer embarazada, la pancita. No sé si es más sexy, pero me siento linda con otro cuerpo. Al Pola le encanta, también, el cuerpo y el hecho de que esté embarazada. No me animo a decir si se erotiza más porque me da como cosita, pero sí, para qué negarlo... le gusta el cuerpo mío embarazada y se pone más cachondo. ¡Se va a enojar cuando lea esto! , agregó, con humor. Por otro lado, Silenzi dejó en claro que el bebé en camino fue un proyecto que se hizo realidad: Fue buscado, pero no teníamos el plan de que sea ya. Es un bebé que viene con dos papás que están muy, muy enamorados, y que lo buscaron . Lo que me enamoró de él fue su forma de ser. Es divertido, siempre está con una sonrisa. Y bueno, es muy lindo, obviamente. Sus ojos, su mirada y su sonrisa son? ¡tremendos! Él te habla y te quedás embobada. Eso todavía me pasa. Aún lo miro con esa baba que se me cae, porque es hermoso , cerró. Ver esta publicación en Instagram El Amor... vos @elpolaco Una publicación compartida de Barby Silenzi (@barby_silenzi) el 15 Nov, 2019 a las 1:18 PST

bgdabogados.com

Super Friki Market abre sus puertas en Madrid este sábado

2019-11-22

Ver imagen más grande Super Friki Market abre sus puertas en Madrid este sábado Una realidad ineludible entre los fans de la cultura pop y de lo friki en general es que nos es imposible pasar por ciertas zonas sin pararnos en nuestras tiendas de referencia a ver novedades. Los últimos juegos, los últimos productos de merchandising, las estatuas de Juego de Tronos que han repartido por Madrid…. todo es buena excusa para salir a la calle y echar unas horas de frikeo. Pero, aunque muchas de estas tiendas tienen productos alimenticios frikis, son más una anécdota entre todos sus demás productos. Sin embargo, este sábado 23 de noviembre la cosa va a cambiar, puesto que llegará a Madrid Super Friki Market, el primer supermercado friki de la capital donde podremos encontrar multitud de productos que hemos visto en las películas y series de nuestro día a día. ¿Que quieres una chocolatina de Willy Wonka? La tienen, pero si te sale un billete dorado no reclames tu premio, que el señor Wonka está trabajando en nuevos sabores y no acepta visitas.

hobbyconsolas.com

Super Friki Market abre sus puertas en Madrid este sábado

2019-11-22

Una realidad ineludible entre los fans de la cultura pop y de lo friki en general es que nos es imposible pasar por ciertas zonas sin pararnos en nuestras tiendas de referencia a ver novedades. Los últimos juegos, los últimos productos de merchandising, las estatuas de Juego de Tronos que han repartido por Madrid.... todo es buena excusa para salir a la calle y echar unas horas de frikeo. Pero, aunque muchas de estas tiendas tienen productos alimenticios frikis, son más una anécdota entre todos sus demás productos. Sin embargo, este sábado 23 de noviembre la cosa va a cambiar, puesto que llegará a Madrid Super Friki Market, el primer supermercado friki de la capital donde podremos encontrar multitud de productos que hemos visto en las películas y series de nuestro día a día. ¿Que quieres una chocolatina de Willy Wonka? La tienen, pero si te sale un billete dorado no reclames tu premio, que el señor Wonka está trabajando en nuevos sabores y no acepta visitas. 10 camisetas perfectas para fans de Dragon Ball Una cerveza de mantequilla de Harry Potter también estará al alcance de tu mano cuando compres en Super Friki Market, o un vinito de lágrimas de unicornio para conquistar al amor de tu vida. Super Friki Market tendrá multitud de productos importados desde América y Japón, además por supuesto de productos nacionales. Tras su contundente éxito de Barcelona, donde abrieron a principios de año, Super Friki Market aterriza en Madrid, o mejor dicho en Alcorcón. Será en el espacio comercial X-Madrid donde esta nueva tienda de referencia abra sus puertas gracias a Reino de juguetes. Tomad buena nota y recordad que en los animes comen deprisa, pero vosotros no lo hagáis, que os puede dar un parraque. Comentar Y ADEMÁS

cadenaser.com

Manu Carreño: Para el Real Madrid lo que ha hecho Bale le pone más en valor, para otros es un cachondeo

2019-11-21

Escucha Manu Carreño: Para el Real Madrid lo que ha hecho Bale le pone más en valor, para otros es un cachondeo en Play SERGareth Bale volvió este jueves a los entrenamientos con el Real Madrid tras la polémica celebración del pasado martes cuando Gales se clasificó a la Eurocopa. Sobre este asunto opinó Manu Carreño en El Larguero, ofreciendo su punto de vista acerca de lo que piensa el Real Madrid sobre este tema y también sobre la opinión de muchos otros sobre el futbolista galés. Lo que para muchos es poco menos que una provocación que se haya reído como se han reído los aficionados de Gales con esa famosa bandera gracias a Pedja Mijatovic y su frase en El Larguero, para el Real Madrid, al menos de puertas a fuera, es un asunto al que no hay que darle mucha importancia. Lo importante es que Bale está bien, que ha llegado sin lesionarse, que va a estar a las órdenes de Zidane, que ha sido el mejor de Gales y que se han clasificado para la Eurocopa, y eso, para el Real Madrid, pone todavía más en valor a su futbolista. Para otros en un choteo y un cachondeo y probablemente, viniendo de donde venimos, para mí está más cerca de lo segundo que de lo primero . Seguir leyendo

ecartelera.com

Abre X-Madrid, el centro comercial con la mayor tienda de Funkos de España, una de Harry Potter y supermercado friki

2019-11-21

Acaba de inaugurarse el X-Madrid, un gran centro comercial en Alcorcón de unos 40.000 metros cuadrados de extensión llenos de tiendas y espacios dedicados a la práctica de deportes. El lugar cuenta con un centro de buceo de 15 metros de profundidad, skatepark, rocódromo, bolera y una ola artificial para hacer surf. Además, nos trae un cine y tres tiendas para amantes de Harry Potter , los Funkos y la alimentación más friki que abren el 23 de noviembre. El Callejón Madriagon (acordaos de decirlo bien si usáis polvos flu) es una tienda especializada en merchandising y artículos de coleccionista de la saga Harry Potter que cuenta con una decoración artesanal que hará de ir de compras toda una experiencia. Funko Madrid se ha convertido en la tienda más grande de toda España especializada en la venta de Funko POPs, con 125 metros cuadrados de figuras de nuestros personajes favoritos y otros artículos. Es el paraíso Funko nacional. Por último, llega el Super Friki Market, un supermercado de alimentación con productos nacionales e importados de países como Estados Unidos o Japón. Podrás comprar todo tipo de comida y bebida como chocolatinas de Willy Wonka (e intentar que te toque el ticket dorado) o licor de Fuego Valyrio. Ver esta publicación en Instagram Una publicación compartida de Super Friki Market (@superfrikimarket) el 9 Nov, 2019 a las 10:47 PST PIONEROS EN BARCELONA Estas tiendas llegan a Madrid de la mano de Reino de juguetes, que ya probaron con estos locales en Barcelona. Por lo tanto, si os pilla más cerca la Ciudad Condal, también podréis disfrutar allí de ellas. Allí abrieron Carreró Maldà, la primera tienda especializada en Harry Potter y que cuenta con 3 locales diferentes. También os encontraréis con el Super Friki Market y con otra gran tienda, Funko Barcelona. El centro comercial X-Madrid se encuentra en la Calle Oslo, 53, en Alcorcón. La estación de Metro más cercana es Parque Oeste, y la de Cercanías es Las Retamas.

culturaocio.com

Juan Aguirre (sin Eva Amaral) muestra su lado más cachondo con David Broncano en La Resistencia

2019-11-21

MADRID, 21 Nov. (CulturaOcio) - El guitarrista de Amaral, Juan Aguirre, ha sido el gran protagonista del último programa de La Resistencia, al ser entrevistado en solitario -¿por primera vez?- sin su compañera la cantante Eva Amaral. Y ha aprovechado para mostrar ese gran sentido del humor que suele mantener oculto bajo un manto de aparente timidez. Nada de aquello de el seriote de Amaral . Como grupo sois la hostia, pero hay que ponerte en tu sitio, en la posición que mereces dentro de la historia de la música en español, máquina, figura , lanza como introducción el presentador, David Broncano, que remata entonces con la primera broma: ¿Sois todos así? Sí y a veces somos más y a veces peor. No hay un progreso en otra dirección, somos así , replica Aguirre, ya dejándose ver en un tono de lo más distendido. Hay varios pasajes como de costumbre delirantes, como cuando discuten cómo se debe llamar al dueño de un perro: ¿Bro? ¿Responsable? ¿Tutor? Cuenta Juan después cómo una vez le cogió sin edad de conducir y sin carnet el coche a su padre para ir a un festival. Es más grave de lo que pensaba , replica el presentador entre risas, a lo que Juan confiesa que en la actualidad sigue sin tener carnet de conducir ni coche. Eres como El Vaquilla , apunta divertido Broncano. Entonces, Juan relata que se mueve en taxi y en bici, momento en el que pasan a comentar las veces que se han visto por la calle -sin darse cuenta ambos- por su barrio del centro de Madrid. El cachondeo sigue cuando bromea Juan con que Eva no querría ir a ese programa porque suelen ir juntos a cosas más serias . Esta afirmación provoca las risas del público, pues en realidad en La Resistencia también hubo entrevista a Amaral como dúo, solo que fue bastante más corta que la de Juan en solitario. Y pasan a recordar Pasapalabra, antes de que Juan le entregue como regalo a Broncano un casco para montar en bici: Te lo he comprado en una tienda donde el tío me ajusta la bici guay y como veo que tú vas por ahí como Speedy González... y eso es el ticket por si no te mola . Llegado ese punto, el humorista Jorge Ponce hace un repaso a la vida de Juan utilizando para ello a rostros conocidos de diversos ámbitos que visten gorras de todo tipo. Los fans de Juan son muy fans de Juan , bromea Ponce, para luego anunciar que han localizado a una vieja amiga del músico llamada Elena. Pero no es Elena, sino Eva, a la que le pregunta por qué permitió que durante una época Juan se pusiera una gran gorra de medio lado: Como amiga de él, tú el día que se puso esa gorra por primera vez, no fuiste capaz de decirle así no? , lanza Ponce, a lo que responde ella siguiendo el tono: Yo estoy todo el día diciéndole no, de lado no . ENTREVISTA A DÚO En la entrevista a Amaral como grupo, Juan Aguirre hace gala también del gran sentido del humor y se atreve a cantar improvisando tocando con una guitarra: Broncano es un niño rápido y despierto , canta con todo el sentimiento imaginable provocando las risas del respetable. Pasan otro rato con Broncano recordándole a Eva que un miembro de su equipo, un guionista llamado Borja Sumozas, se queja de que le vendió un cuadro pero ella nunca se lo pagó, por lo que le debe 50 euros. Que yo sí que pagué ese cuadro. Bueno, yo no, un intermediario , declara ella, que baja a la platea a que un miembro de su equipo le dé los 50 euros, que a su vez pasa a entregarle a Broncano entre el cachondeo generalizado. En la parte habitual sobre el dinero, Juan dice que en teoría ambos tienen lo mismo . Firmamos a medias pero no sé por qué a Juan le llega mucha más pasta , completa ella. Y para rematar, en la parte de las relaciones sexuales, confiesa Eva. Follar, mal, porque estamos currando mucho últimamente. De cantidad... una vez o dos a la semana , apunta, a lo que desde el público unas chicas gritan sorprendidas porque no les parece poco. Y entonces encesta Broncano como colofón: Vais de guay con veinte años y Eva Amaral os está reventando a follar .

cadenaser.com

Chema: Soy informático y friki de Star Wars

2019-11-21

Chema es informático. Estos días anda muy atareado porque los hackers le han jugado una mala pasada a la empresa donde presta servicio. Pese a ello, siempre luce una sonrisa de oreja a oreja y ayuda todos los usuarios. ¡Chema, no me va! ¡Chema, no me abre! : es la letanía que tiene que oír a su paso por las mesas de la compañía. Estos días se le ve cojear un poco más - ha sido intervenido recientemente de una operación de cadera - pero no se sabe si es el mal tiempo el que le produce dolor o las caminatas arriba y abajo solucionando problemas en los ordenadores. Pero en realidad, lo que a él le mola - como dice - es el mundo Star Wars : soy un friki , afirma. Cuando se estrenó la Guerra de las Galaxias en España en 1977, sólo tenía 6 años. Pero sus primos más mayores, le metían en sus juegos cuando recordaban lo que habían visto en la gran pantalla. A veces le tocaba ser bueno, y subirse al Halcón Milenario, con Han Solo y otras veces malo, y ser un soldado del Imperio. Desde hace más de dos años, Chema pertenece a la Spanish Garrison, más especificamente a la Legión 501 donde es un soldado más del Imperio dispuesto a encontrar a los rebeldes de la Luna de Endor. Ha elegido ese papel porque pertenece a una asociación que presta la imagen de estos soldados imperiales para animar causas de buena voluntad. Pese a ser un soldado imperial a él siempre le gustó ser Chewaka, pero el traje es demasiado caro apunta. Seguir leyendo

teleindiscreta.es

El ‘Tsunami Murciano’ para «frenar a Vox» y «apoyar» al nacionalismo que está siendo el cachondeo d

2019-11-21

El ‘Tsunami Murciano’ para «frenar a Vox» y «apoyar» al nacionalismo que está siendo el cachondeo de las redes

forocoches.com

Regalo cachondo por 5Â? max

2019-11-21

ForoCoches Cup?n LLEGALIDL ?Recibe tu compra en casa en 1 hora! [ +M?S INFO AQU? ] Ir a Página... [ Autor: Gustbran ] [ 23 Mensajes ] [ 463 Visualizaciones ] EL TEMA QUE NECESITAS VER EST? DISPONIBLE PARA USUARIOS REGISTRADOS CON INVITACI?N

tribunasoria.com

Risas, cuchicheos y reprimenda del juez: Los miembros de La Manada , de cachondeo y tan tranquilos en el banquillo

2019-11-21

El juez tiene que llamar la atención a los miembros de La Manada durante la sesión del juicio en Córdoba ante sus risas mientras declaraban los policías que encontraron los vídeos en sus teléfonos. En la tercera sesión del juicio contra cuatro miembros de La Manada por la agresión a una joven en Pozoblanco, el juez ha tenido que interrumpir un interrogatorio ante las risas y los cuchicheos de los cuatro acusados mientras declaraban los agentes de la Policía Foral que encontraron en sus móviles las grabaciones que realizaron cuando iban en el coche con la joven. Les hace mucha gracia , ha interpelado el juez a los cuatro a los que además ha ordenado que dejaran de hacer gestos. Durante la sesión los Agentes han manifestado que tenían autorización judicial para investigar teléfonos de los cuatro miembros del grupo de WhatsApp de La Manada . Según el relato el juez de Instrucción de Pamplona, vía autos, pidió a los agentes que realizaran un estudio pericial de unos vídeos de los hechos de Pamplona y cotejarlos con los elementos gráficos que encontraran en los móviles. De este modo, ha dicho que se recopiló toda la información posible para luego cotejar de cara al estudio pericial. Así, en septiembre de 2016 se realizó la revisión de los teléfonos, tal y como dispone el auto , para encontrar elementos que sirvan para comparar con los vídeos . Ante ello, ha señalado que encontraron una serie de vídeos con posibles abusos , algo que se comunicó de forma inmediata al juez , quien le pidió que hiciera gestiones para intentar de alguna forma identificar a la víctima y la ubicación , porque no sabemos dónde ha ocurrido y quién es la víctima , según ha declarado, para agregar que otro agente fija bien la fecha de los hechos y localiza la palabra Pozoblanco dos veces en los chat. En este sentido, ha relatado que el día 16 de septiembre de ese año un agente de Navarra confirma que hay identificada una posible víctima , de modo que el juez pide contactar con ella para ver si realmente ha tenido algún incidente , algo en lo que la víctima dice que sí, que tiene un lapsus de tiempo y no sabe qué ocurrido, pero que ha aparecido desnuda en el coche , y uno de los acusados le dijo que le hiciera una felación y ella dijo que no , por lo que la echó con golpes, según el testimonio del agente, en el que ha agregado que a los cuatro encausados se les identifica perfectamente y los tocamientos que realizan, entre risas . Al respecto, ha destacado que la actitud de la denunciante en los dos vídeos es como inerte, no tiene ningún tipo de reacción, no se sabe si está dormida o inconsciente, no hay movimiento corporal de la víctima , ha puntualizado, para precisar que entre los dos vídeos grabados hay seis segundos de diferencia. En uno de los momentos, el juez ha llamado la atención a los acusados, pidiendo que no gesticularan. Mientras, el abogado de la defensa, Agustín Martínez, ha preguntado si no estaban cotejados suficientemente los hechos del 6 y 7 de julio en Pamplona con los archivos que había, algo en lo que el agente ha mantenido que no se puede identificar a los acusados en algunos planos , de manera que el estudio pericial tiene que ser exhaustivo y hay que analizar todas las imágenes . Por otra parte, el instructor ha defendido que no es cierto que el juez les dijera que miraran en los teléfonos para ver si había algún delito más, a lo que ha añadido que por los comentarios en los hechos de Pamplona se apuntaba a la posible comisión de otros delitos. Queríamos encontrar material para cotejar , ha subrayado. En relación a instrucciones que les da el juez de Pamplona sobre la actuación de un agente en su traslado a Pozoblanco, como la recogida de pelos de la joven por si ha quedado algún resto de algún tipo de sustancia, el instructor ha dicho que el juez se las transmite de forma verbal , además de ofrecer la posibilidad de poner denuncia y la denunciante dice que no quiere acudir a ningún centro policial . Otro agente ha señalado que al analizar los vídeos de Pamplona ha comentado que en ciertas acciones hubo dudas de quiénes eran, al tiempo que ha remarcado que en el auto viene bien claro que se analizara todo y no se dice que limitemos a los hechos de Pamplona . También, ha dicho que no es cierto que el juez dijera que investigaran más en el teléfono por si habían cometido más delitos. Mientras, otro de los agentes que visionó el material de los teléfonos de los procesados ha indicado que advirtió de dos vídeos en los que se podía estar cometiendo algún delito , de modo que informó a su jefe, al tiempo que localizó a la víctima en sus indagaciones en Internet y contactó con la Policía de Pozoblanco, sin dar detalles de los que se investigaba . Al hablar con ella por teléfono, tras llamar ella, y comentarle lo que encontró en el vídeo y que pudiera tratarse de que era ella la que aparecía, la joven le dijo: lo sabía, lo sabía, lo sabía. Nadie me creía , según ha precisado el agente de la Policía Foral, quien ha afirmado que el juez ordenó la recogida del cabello de la joven. Igualmente, ha defendido que ha seguido el mismo protocolo de localización de la víctima que suele seguir siempre, conforme a Ley, a la vez que ha declarado que la víctima aportó pantallazos de su móvil con conversaciones tras los hechos con una testigo. Otro de los agentes, encargado de recoger muestras de pelo, ha dicho que las extrajo para descartar que hubiera cualquier sustancia química , bajo instrucción del juez, a la vez que ha dicho que ella denunció voluntariamente . Mientras, un médico forense y una psicóloga han advertido de un trastorno reactivo de ansiedad en la joven, en cuya intensidad hay circunstancias que pueden estar relacionadas con violencia sexual , por una situación que atenta contra su intimidad y la exposición mediática pública . Han señalado que después de los hechos ella hace una vida completamente normal , pero no denuncia, porque reconoce que no tiene argumentos sólidos, no sabe realmente lo que ha pasado , algo que no le origina una patología, pero sí preocupación . La psicóloga ha expresado que ella tenía un poso de dudas en instantes posteriores a los hechos. El médico forense ha indicado que la patología empezó cuando le expusieron las imágenes por la Policía, a lo que ha añadido que a pesar del diagnóstico en ningún momento se recetó medicamento, ni ella lo demandó. La psicóloga ha expuesto que tenía niveles de ansiedad y fue derivada al centro de la mujer . Según ha mantenido, estos hechos han condicionado su vida de manera devastadora . Cabe señalar que los cuatro procesados se han acogido a su derecho a no declarar, tras mantener que son inocentes . Por su parte, la joven se ha mostrado clara, concisa y coherente en su declaración, en la que ha ratificado lo fundamental de la denuncia interpuesta tras conocer el vídeo por la Policía, según la acusación particular. Mientras, el juez ha acordado demorar hasta sentencia su decisión sobre la nulidad o no del vídeo que grabaron sobre los hechos, ocurridos en la noche del 1 de mayo de 2016 y se hicieron públicos en septiembre en la investigación de Pamplona.

antena3.com

El chimborazo de una concursante friki de la geografía en ¡Ahora caigo!

2019-11-20

Formo parte de un club de geografía y de vez en cuando hacemos campeonatos y torneillos online con gente de todo el mundo , ha explicado Ángeles. Y, como friki o apasionada de esa ciencia, Arturo Valls la ha puesto a prueba. ¡La concursante nunca olvidará el volcán Chimborazo!

tribunazamora.com

Risas, cuchicheos y reprimenda del juez: Los miembros de La Manada , de cachondeo y tan tranquilos en el banquillo

2019-11-20

El juez tiene que llamar la atención a los miembros de La Manada durante la sesión del juicio en Córdoba ante sus risas mientras declaraban los policías que encontraron los vídeos en sus teléfonos. En la tercera sesión del juicio contra cuatro miembros de La Manada por la agresión a una joven en Pozoblanco, el juez ha tenido que interrumpir un interrogatorio ante las risas y los cuchicheos de los cuatro acusados mientras declaraban los agentes de la Policía Foral que encontraron en sus móviles las grabaciones que realizaron cuando iban en el coche con la joven. Les hace mucha gracia , ha interpelado el juez a los cuatro a los que además ha ordenado que dejaran de hacer gestos. Durante la sesión los Agentes han manifestado que tenían autorización judicial para investigar teléfonos de los cuatro miembros del grupo de WhatsApp de La Manada . Según el relato el juez de Instrucción de Pamplona, vía autos, pidió a los agentes que realizaran un estudio pericial de unos vídeos de los hechos de Pamplona y cotejarlos con los elementos gráficos que encontraran en los móviles. De este modo, ha dicho que se recopiló toda la información posible para luego cotejar de cara al estudio pericial. Así, en septiembre de 2016 se realizó la revisión de los teléfonos, tal y como dispone el auto , para encontrar elementos que sirvan para comparar con los vídeos . Ante ello, ha señalado que encontraron una serie de vídeos con posibles abusos , algo que se comunicó de forma inmediata al juez , quien le pidió que hiciera gestiones para intentar de alguna forma identificar a la víctima y la ubicación , porque no sabemos dónde ha ocurrido y quién es la víctima , según ha declarado, para agregar que otro agente fija bien la fecha de los hechos y localiza la palabra Pozoblanco dos veces en los chat. En este sentido, ha relatado que el día 16 de septiembre de ese año un agente de Navarra confirma que hay identificada una posible víctima , de modo que el juez pide contactar con ella para ver si realmente ha tenido algún incidente , algo en lo que la víctima dice que sí, que tiene un lapsus de tiempo y no sabe qué ocurrido, pero que ha aparecido desnuda en el coche , y uno de los acusados le dijo que le hiciera una felación y ella dijo que no , por lo que la echó con golpes, según el testimonio del agente, en el que ha agregado que a los cuatro encausados se les identifica perfectamente y los tocamientos que realizan, entre risas . Al respecto, ha destacado que la actitud de la denunciante en los dos vídeos es como inerte, no tiene ningún tipo de reacción, no se sabe si está dormida o inconsciente, no hay movimiento corporal de la víctima , ha puntualizado, para precisar que entre los dos vídeos grabados hay seis segundos de diferencia. En uno de los momentos, el juez ha llamado la atención a los acusados, pidiendo que no gesticularan. Mientras, el abogado de la defensa, Agustín Martínez, ha preguntado si no estaban cotejados suficientemente los hechos del 6 y 7 de julio en Pamplona con los archivos que había, algo en lo que el agente ha mantenido que no se puede identificar a los acusados en algunos planos , de manera que el estudio pericial tiene que ser exhaustivo y hay que analizar todas las imágenes . Por otra parte, el instructor ha defendido que no es cierto que el juez les dijera que miraran en los teléfonos para ver si había algún delito más, a lo que ha añadido que por los comentarios en los hechos de Pamplona se apuntaba a la posible comisión de otros delitos. Queríamos encontrar material para cotejar , ha subrayado. En relación a instrucciones que les da el juez de Pamplona sobre la actuación de un agente en su traslado a Pozoblanco, como la recogida de pelos de la joven por si ha quedado algún resto de algún tipo de sustancia, el instructor ha dicho que el juez se las transmite de forma verbal , además de ofrecer la posibilidad de poner denuncia y la denunciante dice que no quiere acudir a ningún centro policial . Otro agente ha señalado que al analizar los vídeos de Pamplona ha comentado que en ciertas acciones hubo dudas de quiénes eran, al tiempo que ha remarcado que en el auto viene bien claro que se analizara todo y no se dice que limitemos a los hechos de Pamplona . También, ha dicho que no es cierto que el juez dijera que investigaran más en el teléfono por si habían cometido más delitos. Mientras, otro de los agentes que visionó el material de los teléfonos de los procesados ha indicado que advirtió de dos vídeos en los que se podía estar cometiendo algún delito , de modo que informó a su jefe, al tiempo que localizó a la víctima en sus indagaciones en Internet y contactó con la Policía de Pozoblanco, sin dar detalles de los que se investigaba . Al hablar con ella por teléfono, tras llamar ella, y comentarle lo que encontró en el vídeo y que pudiera tratarse de que era ella la que aparecía, la joven le dijo: lo sabía, lo sabía, lo sabía. Nadie me creía , según ha precisado el agente de la Policía Foral, quien ha afirmado que el juez ordenó la recogida del cabello de la joven. Igualmente, ha defendido que ha seguido el mismo protocolo de localización de la víctima que suele seguir siempre, conforme a Ley, a la vez que ha declarado que la víctima aportó pantallazos de su móvil con conversaciones tras los hechos con una testigo. Otro de los agentes, encargado de recoger muestras de pelo, ha dicho que las extrajo para descartar que hubiera cualquier sustancia química , bajo instrucción del juez, a la vez que ha dicho que ella denunció voluntariamente . Mientras, un médico forense y una psicóloga han advertido de un trastorno reactivo de ansiedad en la joven, en cuya intensidad hay circunstancias que pueden estar relacionadas con violencia sexual , por una situación que atenta contra su intimidad y la exposición mediática pública . Han señalado que después de los hechos ella hace una vida completamente normal , pero no denuncia, porque reconoce que no tiene argumentos sólidos, no sabe realmente lo que ha pasado , algo que no le origina una patología, pero sí preocupación . La psicóloga ha expresado que ella tenía un poso de dudas en instantes posteriores a los hechos. El médico forense ha indicado que la patología empezó cuando le expusieron las imágenes por la Policía, a lo que ha añadido que a pesar del diagnóstico en ningún momento se recetó medicamento, ni ella lo demandó. La psicóloga ha expuesto que tenía niveles de ansiedad y fue derivada al centro de la mujer . Según ha mantenido, estos hechos han condicionado su vida de manera devastadora . Cabe señalar que los cuatro procesados se han acogido a su derecho a no declarar, tras mantener que son inocentes . Por su parte, la joven se ha mostrado clara, concisa y coherente en su declaración, en la que ha ratificado lo fundamental de la denuncia interpuesta tras conocer el vídeo por la Policía, según la acusación particular. Mientras, el juez ha acordado demorar hasta sentencia su decisión sobre la nulidad o no del vídeo que grabaron sobre los hechos, ocurridos en la noche del 1 de mayo de 2016 y se hicieron públicos en septiembre en la investigación de Pamplona.

tribunaavila.com

Risas, cuchicheos y reprimenda del juez: Los miembros de La Manada , de cachondeo y tan tranquilos en el banquillo

2019-11-20

El juez tiene que llamar la atención a los miembros de La Manada durante la sesión del juicio en Córdoba ante sus risas mientras declaraban los policías que encontraron los vídeos en sus teléfonos. En la tercera sesión del juicio contra cuatro miembros de La Manada por la agresión a una joven en Pozoblanco, el juez ha tenido que interrumpir un interrogatorio ante las risas y los cuchicheos de los cuatro acusados mientras declaraban los agentes de la Policía Foral que encontraron en sus móviles las grabaciones que realizaron cuando iban en el coche con la joven. Les hace mucha gracia , ha interpelado el juez a los cuatro a los que además ha ordenado que dejaran de hacer gestos. Durante la sesión los Agentes han manifestado que tenían autorización judicial para investigar teléfonos de los cuatro miembros del grupo de WhatsApp de La Manada . Según el relato el juez de Instrucción de Pamplona, vía autos, pidió a los agentes que realizaran un estudio pericial de unos vídeos de los hechos de Pamplona y cotejarlos con los elementos gráficos que encontraran en los móviles. De este modo, ha dicho que se recopiló toda la información posible para luego cotejar de cara al estudio pericial. Así, en septiembre de 2016 se realizó la revisión de los teléfonos, tal y como dispone el auto , para encontrar elementos que sirvan para comparar con los vídeos . Ante ello, ha señalado que encontraron una serie de vídeos con posibles abusos , algo que se comunicó de forma inmediata al juez , quien le pidió que hiciera gestiones para intentar de alguna forma identificar a la víctima y la ubicación , porque no sabemos dónde ha ocurrido y quién es la víctima , según ha declarado, para agregar que otro agente fija bien la fecha de los hechos y localiza la palabra Pozoblanco dos veces en los chat. En este sentido, ha relatado que el día 16 de septiembre de ese año un agente de Navarra confirma que hay identificada una posible víctima , de modo que el juez pide contactar con ella para ver si realmente ha tenido algún incidente , algo en lo que la víctima dice que sí, que tiene un lapsus de tiempo y no sabe qué ocurrido, pero que ha aparecido desnuda en el coche , y uno de los acusados le dijo que le hiciera una felación y ella dijo que no , por lo que la echó con golpes, según el testimonio del agente, en el que ha agregado que a los cuatro encausados se les identifica perfectamente y los tocamientos que realizan, entre risas . Al respecto, ha destacado que la actitud de la denunciante en los dos vídeos es como inerte, no tiene ningún tipo de reacción, no se sabe si está dormida o inconsciente, no hay movimiento corporal de la víctima , ha puntualizado, para precisar que entre los dos vídeos grabados hay seis segundos de diferencia. En uno de los momentos, el juez ha llamado la atención a los acusados, pidiendo que no gesticularan. Mientras, el abogado de la defensa, Agustín Martínez, ha preguntado si no estaban cotejados suficientemente los hechos del 6 y 7 de julio en Pamplona con los archivos que había, algo en lo que el agente ha mantenido que no se puede identificar a los acusados en algunos planos , de manera que el estudio pericial tiene que ser exhaustivo y hay que analizar todas las imágenes . Por otra parte, el instructor ha defendido que no es cierto que el juez les dijera que miraran en los teléfonos para ver si había algún delito más, a lo que ha añadido que por los comentarios en los hechos de Pamplona se apuntaba a la posible comisión de otros delitos. Queríamos encontrar material para cotejar , ha subrayado. En relación a instrucciones que les da el juez de Pamplona sobre la actuación de un agente en su traslado a Pozoblanco, como la recogida de pelos de la joven por si ha quedado algún resto de algún tipo de sustancia, el instructor ha dicho que el juez se las transmite de forma verbal , además de ofrecer la posibilidad de poner denuncia y la denunciante dice que no quiere acudir a ningún centro policial . Otro agente ha señalado que al analizar los vídeos de Pamplona ha comentado que en ciertas acciones hubo dudas de quiénes eran, al tiempo que ha remarcado que en el auto viene bien claro que se analizara todo y no se dice que limitemos a los hechos de Pamplona . También, ha dicho que no es cierto que el juez dijera que investigaran más en el teléfono por si habían cometido más delitos. Mientras, otro de los agentes que visionó el material de los teléfonos de los procesados ha indicado que advirtió de dos vídeos en los que se podía estar cometiendo algún delito , de modo que informó a su jefe, al tiempo que localizó a la víctima en sus indagaciones en Internet y contactó con la Policía de Pozoblanco, sin dar detalles de los que se investigaba . Al hablar con ella por teléfono, tras llamar ella, y comentarle lo que encontró en el vídeo y que pudiera tratarse de que era ella la que aparecía, la joven le dijo: lo sabía, lo sabía, lo sabía. Nadie me creía , según ha precisado el agente de la Policía Foral, quien ha afirmado que el juez ordenó la recogida del cabello de la joven. Igualmente, ha defendido que ha seguido el mismo protocolo de localización de la víctima que suele seguir siempre, conforme a Ley, a la vez que ha declarado que la víctima aportó pantallazos de su móvil con conversaciones tras los hechos con una testigo. Otro de los agentes, encargado de recoger muestras de pelo, ha dicho que las extrajo para descartar que hubiera cualquier sustancia química , bajo instrucción del juez, a la vez que ha dicho que ella denunció voluntariamente . Mientras, un médico forense y una psicóloga han advertido de un trastorno reactivo de ansiedad en la joven, en cuya intensidad hay circunstancias que pueden estar relacionadas con violencia sexual , por una situación que atenta contra su intimidad y la exposición mediática pública . Han señalado que después de los hechos ella hace una vida completamente normal , pero no denuncia, porque reconoce que no tiene argumentos sólidos, no sabe realmente lo que ha pasado , algo que no le origina una patología, pero sí preocupación . La psicóloga ha expresado que ella tenía un poso de dudas en instantes posteriores a los hechos. El médico forense ha indicado que la patología empezó cuando le expusieron las imágenes por la Policía, a lo que ha añadido que a pesar del diagnóstico en ningún momento se recetó medicamento, ni ella lo demandó. La psicóloga ha expuesto que tenía niveles de ansiedad y fue derivada al centro de la mujer . Según ha mantenido, estos hechos han condicionado su vida de manera devastadora . Cabe señalar que los cuatro procesados se han acogido a su derecho a no declarar, tras mantener que son inocentes . Por su parte, la joven se ha mostrado clara, concisa y coherente en su declaración, en la que ha ratificado lo fundamental de la denuncia interpuesta tras conocer el vídeo por la Policía, según la acusación particular. Mientras, el juez ha acordado demorar hasta sentencia su decisión sobre la nulidad o no del vídeo que grabaron sobre los hechos, ocurridos en la noche del 1 de mayo de 2016 y se hicieron públicos en septiembre en la investigación de Pamplona.

tribunavalladolid.com

Risas, cuchicheos y reprimenda del juez: Los miembros de La Manada , de cachondeo y tan tranquilos en el banquillo

2019-11-20

El juez tiene que llamar la atención a los miembros de La Manada durante la sesión del juicio en Córdoba ante sus risas mientras declaraban los policías que encontraron los vídeos en sus teléfonos. En la tercera sesión del juicio contra cuatro miembros de La Manada por la agresión a una joven en Pozoblanco, el juez ha tenido que interrumpir un interrogatorio ante las risas y los cuchicheos de los cuatro acusados mientras declaraban los agentes de la Policía Foral que encontraron en sus móviles las grabaciones que realizaron cuando iban en el coche con la joven. Les hace mucha gracia , ha interpelado el juez a los cuatro a los que además ha ordenado que dejaran de hacer gestos. Durante la sesión los Agentes han manifestado que tenían autorización judicial para investigar teléfonos de los cuatro miembros del grupo de WhatsApp de La Manada . Según el relato el juez de Instrucción de Pamplona, vía autos, pidió a los agentes que realizaran un estudio pericial de unos vídeos de los hechos de Pamplona y cotejarlos con los elementos gráficos que encontraran en los móviles. De este modo, ha dicho que se recopiló toda la información posible para luego cotejar de cara al estudio pericial. Así, en septiembre de 2016 se realizó la revisión de los teléfonos, tal y como dispone el auto , para encontrar elementos que sirvan para comparar con los vídeos . Ante ello, ha señalado que encontraron una serie de vídeos con posibles abusos , algo que se comunicó de forma inmediata al juez , quien le pidió que hiciera gestiones para intentar de alguna forma identificar a la víctima y la ubicación , porque no sabemos dónde ha ocurrido y quién es la víctima , según ha declarado, para agregar que otro agente fija bien la fecha de los hechos y localiza la palabra Pozoblanco dos veces en los chat. En este sentido, ha relatado que el día 16 de septiembre de ese año un agente de Navarra confirma que hay identificada una posible víctima , de modo que el juez pide contactar con ella para ver si realmente ha tenido algún incidente , algo en lo que la víctima dice que sí, que tiene un lapsus de tiempo y no sabe qué ocurrido, pero que ha aparecido desnuda en el coche , y uno de los acusados le dijo que le hiciera una felación y ella dijo que no , por lo que la echó con golpes, según el testimonio del agente, en el que ha agregado que a los cuatro encausados se les identifica perfectamente y los tocamientos que realizan, entre risas . Al respecto, ha destacado que la actitud de la denunciante en los dos vídeos es como inerte, no tiene ningún tipo de reacción, no se sabe si está dormida o inconsciente, no hay movimiento corporal de la víctima , ha puntualizado, para precisar que entre los dos vídeos grabados hay seis segundos de diferencia. En uno de los momentos, el juez ha llamado la atención a los acusados, pidiendo que no gesticularan. Mientras, el abogado de la defensa, Agustín Martínez, ha preguntado si no estaban cotejados suficientemente los hechos del 6 y 7 de julio en Pamplona con los archivos que había, algo en lo que el agente ha mantenido que no se puede identificar a los acusados en algunos planos , de manera que el estudio pericial tiene que ser exhaustivo y hay que analizar todas las imágenes . Por otra parte, el instructor ha defendido que no es cierto que el juez les dijera que miraran en los teléfonos para ver si había algún delito más, a lo que ha añadido que por los comentarios en los hechos de Pamplona se apuntaba a la posible comisión de otros delitos. Queríamos encontrar material para cotejar , ha subrayado. En relación a instrucciones que les da el juez de Pamplona sobre la actuación de un agente en su traslado a Pozoblanco, como la recogida de pelos de la joven por si ha quedado algún resto de algún tipo de sustancia, el instructor ha dicho que el juez se las transmite de forma verbal , además de ofrecer la posibilidad de poner denuncia y la denunciante dice que no quiere acudir a ningún centro policial . Otro agente ha señalado que al analizar los vídeos de Pamplona ha comentado que en ciertas acciones hubo dudas de quiénes eran, al tiempo que ha remarcado que en el auto viene bien claro que se analizara todo y no se dice que limitemos a los hechos de Pamplona . También, ha dicho que no es cierto que el juez dijera que investigaran más en el teléfono por si habían cometido más delitos. Mientras, otro de los agentes que visionó el material de los teléfonos de los procesados ha indicado que advirtió de dos vídeos en los que se podía estar cometiendo algún delito , de modo que informó a su jefe, al tiempo que localizó a la víctima en sus indagaciones en Internet y contactó con la Policía de Pozoblanco, sin dar detalles de los que se investigaba . Al hablar con ella por teléfono, tras llamar ella, y comentarle lo que encontró en el vídeo y que pudiera tratarse de que era ella la que aparecía, la joven le dijo: lo sabía, lo sabía, lo sabía. Nadie me creía , según ha precisado el agente de la Policía Foral, quien ha afirmado que el juez ordenó la recogida del cabello de la joven. Igualmente, ha defendido que ha seguido el mismo protocolo de localización de la víctima que suele seguir siempre, conforme a Ley, a la vez que ha declarado que la víctima aportó pantallazos de su móvil con conversaciones tras los hechos con una testigo. Otro de los agentes, encargado de recoger muestras de pelo, ha dicho que las extrajo para descartar que hubiera cualquier sustancia química , bajo instrucción del juez, a la vez que ha dicho que ella denunció voluntariamente . Mientras, un médico forense y una psicóloga han advertido de un trastorno reactivo de ansiedad en la joven, en cuya intensidad hay circunstancias que pueden estar relacionadas con violencia sexual , por una situación que atenta contra su intimidad y la exposición mediática pública . Han señalado que después de los hechos ella hace una vida completamente normal , pero no denuncia, porque reconoce que no tiene argumentos sólidos, no sabe realmente lo que ha pasado , algo que no le origina una patología, pero sí preocupación . La psicóloga ha expresado que ella tenía un poso de dudas en instantes posteriores a los hechos. El médico forense ha indicado que la patología empezó cuando le expusieron las imágenes por la Policía, a lo que ha añadido que a pesar del diagnóstico en ningún momento se recetó medicamento, ni ella lo demandó. La psicóloga ha expuesto que tenía niveles de ansiedad y fue derivada al centro de la mujer . Según ha mantenido, estos hechos han condicionado su vida de manera devastadora . Cabe señalar que los cuatro procesados se han acogido a su derecho a no declarar, tras mantener que son inocentes . Por su parte, la joven se ha mostrado clara, concisa y coherente en su declaración, en la que ha ratificado lo fundamental de la denuncia interpuesta tras conocer el vídeo por la Policía, según la acusación particular. Mientras, el juez ha acordado demorar hasta sentencia su decisión sobre la nulidad o no del vídeo que grabaron sobre los hechos, ocurridos en la noche del 1 de mayo de 2016 y se hicieron públicos en septiembre en la investigación de Pamplona.

tribunaleon.com

Risas, cuchicheos y reprimenda del juez: Los miembros de La Manada , de cachondeo y tan tranquilos en el banquillo

2019-11-20

En la tercera sesión del juicio contra cuatro miembros de La Manada por la agresión a una joven en Pozoblanco, el juez ha tenido que interrumpir un interrogatorio ante las risas y los cuchicheos de los cuatro acusados mientras declaraban los agentes de la Policía Foral que encontraron en sus móviles las grabaciones que realizaron cuando iban en el coche con la joven. Les hace mucha gracia , ha interpelado el juez a los cuatro a los que además ha ordenado que dejaran de hacer gestos. Durante la sesión los Agentes han manifestado que tenían autorización judicial para investigar teléfonos de los cuatro miembros del grupo de WhatsApp de La Manada . Según el relato el juez de Instrucción de Pamplona, vía autos, pidió a los agentes que realizaran un estudio pericial de unos vídeos de los hechos de Pamplona y cotejarlos con los elementos gráficos que encontraran en los móviles. De este modo, ha dicho que se recopiló toda la información posible para luego cotejar de cara al estudio pericial. Así, en septiembre de 2016 se realizó la revisión de los teléfonos, tal y como dispone el auto , para encontrar elementos que sirvan para comparar con los vídeos . Ante ello, ha señalado que encontraron una serie de vídeos con posibles abusos , algo que se comunicó de forma inmediata al juez , quien le pidió que hiciera gestiones para intentar de alguna forma identificar a la víctima y la ubicación , porque no sabemos dónde ha ocurrido y quién es la víctima , según ha declarado, para agregar que otro agente fija bien la fecha de los hechos y localiza la palabra Pozoblanco dos veces en los chat. En este sentido, ha relatado que el día 16 de septiembre de ese año un agente de Navarra confirma que hay identificada una posible víctima , de modo que el juez pide contactar con ella para ver si realmente ha tenido algún incidente , algo en lo que la víctima dice que sí, que tiene un lapsus de tiempo y no sabe qué ocurrido, pero que ha aparecido desnuda en el coche , y uno de los acusados le dijo que le hiciera una felación y ella dijo que no , por lo que la echó con golpes, según el testimonio del agente, en el que ha agregado que a los cuatro encausados se les identifica perfectamente y los tocamientos que realizan, entre risas . Al respecto, ha destacado que la actitud de la denunciante en los dos vídeos es como inerte, no tiene ningún tipo de reacción, no se sabe si está dormida o inconsciente, no hay movimiento corporal de la víctima , ha puntualizado, para precisar que entre los dos vídeos grabados hay seis segundos de diferencia. En uno de los momentos, el juez ha llamado la atención a los acusados, pidiendo que no gesticularan. Mientras, el abogado de la defensa, Agustín Martínez, ha preguntado si no estaban cotejados suficientemente los hechos del 6 y 7 de julio en Pamplona con los archivos que había, algo en lo que el agente ha mantenido que no se puede identificar a los acusados en algunos planos , de manera que el estudio pericial tiene que ser exhaustivo y hay que analizar todas las imágenes . Por otra parte, el instructor ha defendido que no es cierto que el juez les dijera que miraran en los teléfonos para ver si había algún delito más, a lo que ha añadido que por los comentarios en los hechos de Pamplona se apuntaba a la posible comisión de otros delitos. Queríamos encontrar material para cotejar , ha subrayado. En relación a instrucciones que les da el juez de Pamplona sobre la actuación de un agente en su traslado a Pozoblanco, como la recogida de pelos de la joven por si ha quedado algún resto de algún tipo de sustancia, el instructor ha dicho que el juez se las transmite de forma verbal , además de ofrecer la posibilidad de poner denuncia y la denunciante dice que no quiere acudir a ningún centro policial . Otro agente ha señalado que al analizar los vídeos de Pamplona ha comentado que en ciertas acciones hubo dudas de quiénes eran, al tiempo que ha remarcado que en el auto viene bien claro que se analizara todo y no se dice que limitemos a los hechos de Pamplona . También, ha dicho que no es cierto que el juez dijera que investigaran más en el teléfono por si habían cometido más delitos. Mientras, otro de los agentes que visionó el material de los teléfonos de los procesados ha indicado que advirtió de dos vídeos en los que se podía estar cometiendo algún delito , de modo que informó a su jefe, al tiempo que localizó a la víctima en sus indagaciones en Internet y contactó con la Policía de Pozoblanco, sin dar detalles de los que se investigaba . Al hablar con ella por teléfono, tras llamar ella, y comentarle lo que encontró en el vídeo y que pudiera tratarse de que era ella la que aparecía, la joven le dijo: lo sabía, lo sabía, lo sabía. Nadie me creía , según ha precisado el agente de la Policía Foral, quien ha afirmado que el juez ordenó la recogida del cabello de la joven. Igualmente, ha defendido que ha seguido el mismo protocolo de localización de la víctima que suele seguir siempre, conforme a Ley, a la vez que ha declarado que la víctima aportó pantallazos de su móvil con conversaciones tras los hechos con una testigo. Otro de los agentes, encargado de recoger muestras de pelo, ha dicho que las extrajo para descartar que hubiera cualquier sustancia química , bajo instrucción del juez, a la vez que ha dicho que ella denunció voluntariamente . Mientras, un médico forense y una psicóloga han advertido de un trastorno reactivo de ansiedad en la joven, en cuya intensidad hay circunstancias que pueden estar relacionadas con violencia sexual , por una situación que atenta contra su intimidad y la exposición mediática pública . Han señalado que después de los hechos ella hace una vida completamente normal , pero no denuncia, porque reconoce que no tiene argumentos sólidos, no sabe realmente lo que ha pasado , algo que no le origina una patología, pero sí preocupación . La psicóloga ha expresado que ella tenía un poso de dudas en instantes posteriores a los hechos. El médico forense ha indicado que la patología empezó cuando le expusieron las imágenes por la Policía, a lo que ha añadido que a pesar del diagnóstico en ningún momento se recetó medicamento, ni ella lo demandó. La psicóloga ha expuesto que tenía niveles de ansiedad y fue derivada al centro de la mujer . Según ha mantenido, estos hechos han condicionado su vida de manera devastadora . Cabe señalar que los cuatro procesados se han acogido a su derecho a no declarar, tras mantener que son inocentes . Por su parte, la joven se ha mostrado clara, concisa y coherente en su declaración, en la que ha ratificado lo fundamental de la denuncia interpuesta tras conocer el vídeo por la Policía, según la acusación particular. Mientras, el juez ha acordado demorar hasta sentencia su decisión sobre la nulidad o no del vídeo que grabaron sobre los hechos, ocurridos en la noche del 1 de mayo de 2016 y se hicieron públicos en septiembre en la investigación de Pamplona.

tribunasegovia.com

Risas, cuchicheos y reprimenda del juez: Los miembros de La Manada , de cachondeo y tan tranquilos en el banquillo

2019-11-20

En la tercera sesión del juicio contra cuatro miembros de La Manada por la agresión a una joven en Pozoblanco, el juez ha tenido que interrumpir un interrogatorio ante las risas y los cuchicheos de los cuatro acusados mientras declaraban los agentes de la Policía Foral que encontraron en sus móviles las grabaciones que realizaron cuando iban en el coche con la joven. Les hace mucha gracia , ha interpelado el juez a los cuatro a los que además ha ordenado que dejaran de hacer gestos. Durante la sesión los Agentes han manifestado que tenían autorización judicial para investigar teléfonos de los cuatro miembros del grupo de WhatsApp de La Manada . Según el relato el juez de Instrucción de Pamplona, vía autos, pidió a los agentes que realizaran un estudio pericial de unos vídeos de los hechos de Pamplona y cotejarlos con los elementos gráficos que encontraran en los móviles. De este modo, ha dicho que se recopiló toda la información posible para luego cotejar de cara al estudio pericial. Así, en septiembre de 2016 se realizó la revisión de los teléfonos, tal y como dispone el auto , para encontrar elementos que sirvan para comparar con los vídeos . Ante ello, ha señalado que encontraron una serie de vídeos con posibles abusos , algo que se comunicó de forma inmediata al juez , quien le pidió que hiciera gestiones para intentar de alguna forma identificar a la víctima y la ubicación , porque no sabemos dónde ha ocurrido y quién es la víctima , según ha declarado, para agregar que otro agente fija bien la fecha de los hechos y localiza la palabra Pozoblanco dos veces en los chat. En este sentido, ha relatado que el día 16 de septiembre de ese año un agente de Navarra confirma que hay identificada una posible víctima , de modo que el juez pide contactar con ella para ver si realmente ha tenido algún incidente , algo en lo que la víctima dice que sí, que tiene un lapsus de tiempo y no sabe qué ocurrido, pero que ha aparecido desnuda en el coche , y uno de los acusados le dijo que le hiciera una felación y ella dijo que no , por lo que la echó con golpes, según el testimonio del agente, en el que ha agregado que a los cuatro encausados se les identifica perfectamente y los tocamientos que realizan, entre risas . Al respecto, ha destacado que la actitud de la denunciante en los dos vídeos es como inerte, no tiene ningún tipo de reacción, no se sabe si está dormida o inconsciente, no hay movimiento corporal de la víctima , ha puntualizado, para precisar que entre los dos vídeos grabados hay seis segundos de diferencia. En uno de los momentos, el juez ha llamado la atención a los acusados, pidiendo que no gesticularan. Mientras, el abogado de la defensa, Agustín Martínez, ha preguntado si no estaban cotejados suficientemente los hechos del 6 y 7 de julio en Pamplona con los archivos que había, algo en lo que el agente ha mantenido que no se puede identificar a los acusados en algunos planos , de manera que el estudio pericial tiene que ser exhaustivo y hay que analizar todas las imágenes . Por otra parte, el instructor ha defendido que no es cierto que el juez les dijera que miraran en los teléfonos para ver si había algún delito más, a lo que ha añadido que por los comentarios en los hechos de Pamplona se apuntaba a la posible comisión de otros delitos. Queríamos encontrar material para cotejar , ha subrayado. En relación a instrucciones que les da el juez de Pamplona sobre la actuación de un agente en su traslado a Pozoblanco, como la recogida de pelos de la joven por si ha quedado algún resto de algún tipo de sustancia, el instructor ha dicho que el juez se las transmite de forma verbal , además de ofrecer la posibilidad de poner denuncia y la denunciante dice que no quiere acudir a ningún centro policial . Otro agente ha señalado que al analizar los vídeos de Pamplona ha comentado que en ciertas acciones hubo dudas de quiénes eran, al tiempo que ha remarcado que en el auto viene bien claro que se analizara todo y no se dice que limitemos a los hechos de Pamplona . También, ha dicho que no es cierto que el juez dijera que investigaran más en el teléfono por si habían cometido más delitos. Mientras, otro de los agentes que visionó el material de los teléfonos de los procesados ha indicado que advirtió de dos vídeos en los que se podía estar cometiendo algún delito , de modo que informó a su jefe, al tiempo que localizó a la víctima en sus indagaciones en Internet y contactó con la Policía de Pozoblanco, sin dar detalles de los que se investigaba . Al hablar con ella por teléfono, tras llamar ella, y comentarle lo que encontró en el vídeo y que pudiera tratarse de que era ella la que aparecía, la joven le dijo: lo sabía, lo sabía, lo sabía. Nadie me creía , según ha precisado el agente de la Policía Foral, quien ha afirmado que el juez ordenó la recogida del cabello de la joven. Igualmente, ha defendido que ha seguido el mismo protocolo de localización de la víctima que suele seguir siempre, conforme a Ley, a la vez que ha declarado que la víctima aportó pantallazos de su móvil con conversaciones tras los hechos con una testigo. Otro de los agentes, encargado de recoger muestras de pelo, ha dicho que las extrajo para descartar que hubiera cualquier sustancia química , bajo instrucción del juez, a la vez que ha dicho que ella denunció voluntariamente . Mientras, un médico forense y una psicóloga han advertido de un trastorno reactivo de ansiedad en la joven, en cuya intensidad hay circunstancias que pueden estar relacionadas con violencia sexual , por una situación que atenta contra su intimidad y la exposición mediática pública . Han señalado que después de los hechos ella hace una vida completamente normal , pero no denuncia, porque reconoce que no tiene argumentos sólidos, no sabe realmente lo que ha pasado , algo que no le origina una patología, pero sí preocupación . La psicóloga ha expresado que ella tenía un poso de dudas en instantes posteriores a los hechos. El médico forense ha indicado que la patología empezó cuando le expusieron las imágenes por la Policía, a lo que ha añadido que a pesar del diagnóstico en ningún momento se recetó medicamento, ni ella lo demandó. La psicóloga ha expuesto que tenía niveles de ansiedad y fue derivada al centro de la mujer . Según ha mantenido, estos hechos han condicionado su vida de manera devastadora . Cabe señalar que los cuatro procesados se han acogido a su derecho a no declarar, tras mantener que son inocentes . Por su parte, la joven se ha mostrado clara, concisa y coherente en su declaración, en la que ha ratificado lo fundamental de la denuncia interpuesta tras conocer el vídeo por la Policía, según la acusación particular. Mientras, el juez ha acordado demorar hasta sentencia su decisión sobre la nulidad o no del vídeo que grabaron sobre los hechos, ocurridos en la noche del 1 de mayo de 2016 y se hicieron públicos en septiembre en la investigación de Pamplona.

tribunaburgos.com

Risas, cuchicheos y reprimenda del juez: Los miembros de La Manada , de cachondeo y tan tranquilos en el banquillo

2019-11-20

En la tercera sesión del juicio contra cuatro miembros de La Manada por la agresión a una joven en Pozoblanco, el juez ha tenido que interrumpir un interrogatorio ante las risas y los cuchicheos de los cuatro acusados mientras declaraban los agentes de la Policía Foral que encontraron en sus móviles las grabaciones que realizaron cuando iban en el coche con la joven. Les hace mucha gracia , ha interpelado el juez a los cuatro a los que además ha ordenado que dejaran de hacer gestos. Durante la sesión los Agentes han manifestado que tenían autorización judicial para investigar teléfonos de los cuatro miembros del grupo de WhatsApp de La Manada . Según el relato el juez de Instrucción de Pamplona, vía autos, pidió a los agentes que realizaran un estudio pericial de unos vídeos de los hechos de Pamplona y cotejarlos con los elementos gráficos que encontraran en los móviles. De este modo, ha dicho que se recopiló toda la información posible para luego cotejar de cara al estudio pericial. Así, en septiembre de 2016 se realizó la revisión de los teléfonos, tal y como dispone el auto , para encontrar elementos que sirvan para comparar con los vídeos . Ante ello, ha señalado que encontraron una serie de vídeos con posibles abusos , algo que se comunicó de forma inmediata al juez , quien le pidió que hiciera gestiones para intentar de alguna forma identificar a la víctima y la ubicación , porque no sabemos dónde ha ocurrido y quién es la víctima , según ha declarado, para agregar que otro agente fija bien la fecha de los hechos y localiza la palabra Pozoblanco dos veces en los chat. En este sentido, ha relatado que el día 16 de septiembre de ese año un agente de Navarra confirma que hay identificada una posible víctima , de modo que el juez pide contactar con ella para ver si realmente ha tenido algún incidente , algo en lo que la víctima dice que sí, que tiene un lapsus de tiempo y no sabe qué ocurrido, pero que ha aparecido desnuda en el coche , y uno de los acusados le dijo que le hiciera una felación y ella dijo que no , por lo que la echó con golpes, según el testimonio del agente, en el que ha agregado que a los cuatro encausados se les identifica perfectamente y los tocamientos que realizan, entre risas . Al respecto, ha destacado que la actitud de la denunciante en los dos vídeos es como inerte, no tiene ningún tipo de reacción, no se sabe si está dormida o inconsciente, no hay movimiento corporal de la víctima , ha puntualizado, para precisar que entre los dos vídeos grabados hay seis segundos de diferencia. En uno de los momentos, el juez ha llamado la atención a los acusados, pidiendo que no gesticularan. Mientras, el abogado de la defensa, Agustín Martínez, ha preguntado si no estaban cotejados suficientemente los hechos del 6 y 7 de julio en Pamplona con los archivos que había, algo en lo que el agente ha mantenido que no se puede identificar a los acusados en algunos planos , de manera que el estudio pericial tiene que ser exhaustivo y hay que analizar todas las imágenes . Por otra parte, el instructor ha defendido que no es cierto que el juez les dijera que miraran en los teléfonos para ver si había algún delito más, a lo que ha añadido que por los comentarios en los hechos de Pamplona se apuntaba a la posible comisión de otros delitos. Queríamos encontrar material para cotejar , ha subrayado. En relación a instrucciones que les da el juez de Pamplona sobre la actuación de un agente en su traslado a Pozoblanco, como la recogida de pelos de la joven por si ha quedado algún resto de algún tipo de sustancia, el instructor ha dicho que el juez se las transmite de forma verbal , además de ofrecer la posibilidad de poner denuncia y la denunciante dice que no quiere acudir a ningún centro policial . LO SABÍA, LO SABÍA, LO SABÍA. NADIE ME CREÍA Otro agente ha señalado que al analizar los vídeos de Pamplona ha comentado que en ciertas acciones hubo dudas de quiénes eran, al tiempo que ha remarcado que en el auto viene bien claro que se analizara todo y no se dice que limitemos a los hechos de Pamplona . También, ha dicho que no es cierto que el juez dijera que investigaran más en el teléfono por si habían cometido más delitos. Mientras, otro de los agentes que visionó el material de los teléfonos de los procesados ha indicado que advirtió de dos vídeos en los que se podía estar cometiendo algún delito , de modo que informó a su jefe, al tiempo que localizó a la víctima en sus indagaciones en Internet y contactó con la Policía de Pozoblanco, sin dar detalles de los que se investigaba . Al hablar con ella por teléfono, tras llamar ella, y comentarle lo que encontró en el vídeo y que pudiera tratarse de que era ella la que aparecía, la joven le dijo: lo sabía, lo sabía, lo sabía. Nadie me creía , según ha precisado el agente de la Policía Foral, quien ha afirmado que el juez ordenó la recogida del cabello de la joven. Igualmente, ha defendido que ha seguido el mismo protocolo de localización de la víctima que suele seguir siempre, conforme a Ley, a la vez que ha declarado que la víctima aportó pantallazos de su móvil con conversaciones tras los hechos con una testigo. Otro de los agentes, encargado de recoger muestras de pelo, ha dicho que las extrajo para descartar que hubiera cualquier sustancia química , bajo instrucción del juez, a la vez que ha dicho que ella denunció voluntariamente . ACTUACIÓN MÉDICA Mientras, un médico forense y una psicóloga han advertido de un trastorno reactivo de ansiedad en la joven, en cuya intensidad hay circunstancias que pueden estar relacionadas con violencia sexual , por una situación que atenta contra su intimidad y la exposición mediática pública . Han señalado que después de los hechos ella hace una vida completamente normal , pero no denuncia, porque reconoce que no tiene argumentos sólidos, no sabe realmente lo que ha pasado , algo que no le origina una patología, pero sí preocupación . La psicóloga ha expresado que ella tenía un poso de dudas en instantes posteriores a los hechos. El médico forense ha indicado que la patología empezó cuando le expusieron las imágenes por la Policía, a lo que ha añadido que a pesar del diagnóstico en ningún momento se recetó medicamento, ni ella lo demandó. La psicóloga ha expuesto que tenía niveles de ansiedad y fue derivada al centro de la mujer . Según ha mantenido, estos hechos han condicionado su vida de manera devastadora . SE DECLARAN INOCENTES Cabe señalar que los cuatro procesados se han acogido a su derecho a no declarar, tras mantener que son inocentes . Por su parte, la joven se ha mostrado clara, concisa y coherente en su declaración, en la que ha ratificado lo fundamental de la denuncia interpuesta tras conocer el vídeo por la Policía, según la acusación particular. Mientras, el juez ha acordado demorar hasta sentencia su decisión sobre la nulidad o no del vídeo que grabaron sobre los hechos, ocurridos en la noche del 1 de mayo de 2016 y se hicieron públicos en septiembre en la investigación de Pamplona.

maestroviejo.es

¿La conspiración Iluminati fue mencionada en una profecía bíblica?

2019-11-20

¿DEBERÍAN LOS CRISTIANOS ESTAR PREOCUPADOS POR UNA SOCIEDAD GLOBAL SECRETA? La teoría de la conspiración Iluminati afirma que una sociedad súper secreta ha penetrado en los gobiernos, las finanzas, la ciencia, los negocios y la industria del entretenimiento con un objetivo en mente: la dominación del mundo. Para los cristianos, esta idea aparentemente descabellada puede contener un grano de verdad del libro de 1 Juan. Juan menciona la llegada del Anticristo, un líder carismático que tomará el control de los gobiernos del mundo y gobernará por 42 meses. Muchos de los que estudian las profecías bíblicas dicen que los Iluminati están sentando las bases para el Anticristo. Las teorías de conspiración abundan. Algunas de las especulaciones más salvajes vinculan todo, desde guerras a depresiones, música rap a comerciales de televisión, con el plan general de los Illuminati para pacificar a la gente para la toma gradual del poder. LA VERDAD SOBRE LA CONSPIRACIÓN ILUMINATI La sociedad secreta de los Iluminati fue fundada en 1776 en Baviera por Adam Weishaupt, profesor de derecho canónico en la Universidad de Ingolstadt. Weishaupt modeló su organización en los masones, y algunos dicen que los Illuminati se infiltraron en ese grupo. No pasó mucho tiempo antes de que los miembros empezaran a luchar entre sí por el control. En 1785 el duque Carlos Teodoro de Baviera prohibió las sociedades secretas, temiendo que algunas pudieran ser una amenaza para el gobierno. Weishaupt huyó a Alemania, donde comenzó a expandir su filosofía de un gobierno mundial único. Los teóricos de la conspiración Illuminati sugieren que la organización inició la revolución francesa para promover sus objetivos de una sociedad gobernada por la razón, pero la mayoría de los historiadores dicen que la afirmación es altamente improbable. Como una organización de libre pensamiento, los Illuminati se extendieron por toda Europa, recogiendo 2.000 miembros a través de Alemania, Francia, Bélgica, Holanda, Dinamarca, Suecia, Polonia, Hungría e Italia. Weishaupt murió en 1830. Debido a la conexión entre los Illuminati y la masonería, muchos especulan que los Illuminati jugaron un papel en la historia temprana de los Estados Unidos. Muchos de los padres fundadores fueron masones. Símbolos misteriosos en el papel moneda e incluso monumentos en Washington, DC han sido atribuidos a la influencia masónica. TEORÍAS NO PROBADAS DE LA CONSPIRACIÓN ILUMINATI A través de los años, los Illuminati se han convertido en un tema popular para películas, novelas, sitios web, e incluso juegos de video. Los teóricos culpan a los Illuminati por todo, desde la Gran Depresión hasta las guerras mundiales. En la mente de muchas personas, la idea de los Illuminati se relaciona con las teorías de conspiración sobre el Nuevo Orden Mundial, una idea política actual sobre un gobierno, religión y sistema financiero mundial único. Algunos teóricos de la conspiración dicen que el Nuevo Orden Mundial es la meta externa y que los Illuminati son el poder secreto que trabaja detrás de las escenas para lograrlo. Muchos artistas están obviamente conscientes de las leyendas Iluminati y trabajan esos símbolos y mitos en sus actos para alimentar la especulación. Los partidarios de esta idea dicen que organizaciones como las Naciones Unidas, la Unión Europea, la Organización Mundial de la Salud, el Banco Mundial, el Fondo Monetario Internacional, el Grupo Económico del G-20, la Corte Mundial, la OTAN, el Consejo de Relaciones Exteriores, el Consejo Mundial de Iglesias y varias corporaciones multinacionales son peones del Nuevo Orden Mundial, empujando al mundo cada vez más cerca de este futuro socialista, de una sola economía y de una sola religión. APLICACIÓN PARA LOS CRISTIANOS Si hay alguna realidad detrás de todo esto es un punto discutible para los creyentes en Jesucristo, que se aferran a la verdad de que Dios es soberano. Él solo controla el planeta Tierra y su voluntad nunca puede ser frustrada por el hombre. Incluso si hay un gran plan para fusionar todos los países en un solo gobierno mundial, no puede tener éxito sin el permiso de Dios. El plan de salvación de Dios no podía ser detenido por los sumos sacerdotes o los romanos, ni su plan para la humanidad será dejado de lado por ninguna conspiración humana. La segunda venida de Jesucristo está asegurada por la Biblia. Sólo Dios el Padre sabe cuándo ocurrirá. Los cristianos, mientras tanto, pueden estar seguros de que los acontecimientos se desarrollarán exactamente como dice la Escritura: “Porque el poder secreto de la anarquía ya está en acción, pero el que ahora la retiene continuará haciéndolo hasta que sea quitado del camino. Y entonces se revelará el inicuo, a quien el Señor Jesús derribará con el aliento de su boca y destruirá con el esplendor de su venida”. ARTICULOS RELACIONADOS: * Este fue el Invento Prohibido que asusto a los… * ¿Fue mencionada la rueda de Ezequiel en La Biblia,… * Misteriosa profecía bíblica anuncia el fin del mundo… * Extraña profecía bíblica anuncia el fin del mundo y… * Captan “asistente del diablo” criatura de una… * Profecía bíblica cumplida: nace la primera vaca roja… * David Livingstone. La Conspiración Iluminati… * La isla mencionada por Heródoto que desapareció de… * Hallan una ciudad bíblica del siglo 12 a.C.,…

portalnet.cl

Algo de friki lina??

2019-11-20

Cabros necesito para una tarea de investigación cualquier cosa de friki lina

netambulo.com

¿Qué un ‘deepfake’ y cómo crear uno?

2019-11-20

Desde hace unas horas se ha convertido en viral un divertido vídeo sobre el ataque de un T-Rex en la calle. Este es el vídeo de marras: View this post on Instagram The Reverse Angle you’ve all been waiting for @dino4hire @doctorsango #run #prank #lol #wow A post shared by Goub (@goubtube) on Nov 19, 2019 at 11:38am PST El autor es Goutube, un conocido youtuber/instagramer/tiktoker que se dedica a publicar vídeos de humor en sus redes, principalmente YouTube, Instagram y TikTok. No te pierdas tampoco los comentarios de este tuit sobre esta broma del dinosaurio porque no tienen desperdicio. SUSTOS DE DINOSAURIOS POR LA CALLE Lo de disfrazarse de dinosaurio y salir por la calle a dar sustos no es nada novedoso, sin embargo, por la reacción de los «asustados» este vídeo se ha convertido en un éxito en internet en las últimas horas. Como decimos, lo de los ataques de dinosaurios en la calle es ya un clásico de internet que viene ocurriendo desde hace unos años. Mira esta recopilación de los mejores momentos de 2019:

tribunasalamanca.com

Risas, cuchicheos y reprimenda del juez: Los miembros de La Manada , de cachondeo y tan tranquilos en el banquillo

2019-11-20

El juez tiene que llamar la atención a los miembros de La Manada durante la sesión del juicio en Córdoba ante sus risas mientras declaraban los policías que encontraron los vídeos en sus teléfonos. En la tercera sesión del juicio contra cuatro miembros de La Manada por la agresión a una joven en Pozoblanco, el juez ha tenido que interrumpir un interrogatorio ante las risas y los cuchicheos de los cuatro acusados mientras declaraban los agentes de la Policía Foral que encontraron en sus móviles las grabaciones que realizaron cuando iban en el coche con la joven. Les hace mucha gracia , ha interpelado el juez a los cuatro a los que además ha ordenado que dejaran de hacer gestos. Durante la sesión los Agentes han manifestado que tenían autorización judicial para investigar teléfonos de los cuatro miembros del grupo de WhatsApp de La Manada . Según el relato el juez de Instrucción de Pamplona, vía autos, pidió a los agentes que realizaran un estudio pericial de unos vídeos de los hechos de Pamplona y cotejarlos con los elementos gráficos que encontraran en los móviles. De este modo, ha dicho que se recopiló toda la información posible para luego cotejar de cara al estudio pericial. Así, en septiembre de 2016 se realizó la revisión de los teléfonos, tal y como dispone el auto , para encontrar elementos que sirvan para comparar con los vídeos . Ante ello, ha señalado que encontraron una serie de vídeos con posibles abusos , algo que se comunicó de forma inmediata al juez , quien le pidió que hiciera gestiones para intentar de alguna forma identificar a la víctima y la ubicación , porque no sabemos dónde ha ocurrido y quién es la víctima , según ha declarado, para agregar que otro agente fija bien la fecha de los hechos y localiza la palabra Pozoblanco dos veces en los chat. En este sentido, ha relatado que el día 16 de septiembre de ese año un agente de Navarra confirma que hay identificada una posible víctima , de modo que el juez pide contactar con ella para ver si realmente ha tenido algún incidente , algo en lo que la víctima dice que sí, que tiene un lapsus de tiempo y no sabe qué ocurrido, pero que ha aparecido desnuda en el coche , y uno de los acusados le dijo que le hiciera una felación y ella dijo que no , por lo que la echó con golpes, según el testimonio del agente, en el que ha agregado que a los cuatro encausados se les identifica perfectamente y los tocamientos que realizan, entre risas . Al respecto, ha destacado que la actitud de la denunciante en los dos vídeos es como inerte, no tiene ningún tipo de reacción, no se sabe si está dormida o inconsciente, no hay movimiento corporal de la víctima , ha puntualizado, para precisar que entre los dos vídeos grabados hay seis segundos de diferencia. En uno de los momentos, el juez ha llamado la atención a los acusados, pidiendo que no gesticularan. Mientras, el abogado de la defensa, Agustín Martínez, ha preguntado si no estaban cotejados suficientemente los hechos del 6 y 7 de julio en Pamplona con los archivos que había, algo en lo que el agente ha mantenido que no se puede identificar a los acusados en algunos planos , de manera que el estudio pericial tiene que ser exhaustivo y hay que analizar todas las imágenes . Por otra parte, el instructor ha defendido que no es cierto que el juez les dijera que miraran en los teléfonos para ver si había algún delito más, a lo que ha añadido que por los comentarios en los hechos de Pamplona se apuntaba a la posible comisión de otros delitos. Queríamos encontrar material para cotejar , ha subrayado. En relación a instrucciones que les da el juez de Pamplona sobre la actuación de un agente en su traslado a Pozoblanco, como la recogida de pelos de la joven por si ha quedado algún resto de algún tipo de sustancia, el instructor ha dicho que el juez se las transmite de forma verbal , además de ofrecer la posibilidad de poner denuncia y la denunciante dice que no quiere acudir a ningún centro policial . LO SABÍA, LO SABÍA, LO SABÍA. NADIE ME CREÍA Otro agente ha señalado que al analizar los vídeos de Pamplona ha comentado que en ciertas acciones hubo dudas de quiénes eran, al tiempo que ha remarcado que en el auto viene bien claro que se analizara todo y no se dice que limitemos a los hechos de Pamplona . También, ha dicho que no es cierto que el juez dijera que investigaran más en el teléfono por si habían cometido más delitos. Mientras, otro de los agentes que visionó el material de los teléfonos de los procesados ha indicado que advirtió de dos vídeos en los que se podía estar cometiendo algún delito , de modo que informó a su jefe, al tiempo que localizó a la víctima en sus indagaciones en Internet y contactó con la Policía de Pozoblanco, sin dar detalles de los que se investigaba . Al hablar con ella por teléfono, tras llamar ella, y comentarle lo que encontró en el vídeo y que pudiera tratarse de que era ella la que aparecía, la joven le dijo: lo sabía, lo sabía, lo sabía. Nadie me creía , según ha precisado el agente de la Policía Foral, quien ha afirmado que el juez ordenó la recogida del cabello de la joven. Igualmente, ha defendido que ha seguido el mismo protocolo de localización de la víctima que suele seguir siempre, conforme a Ley, a la vez que ha declarado que la víctima aportó pantallazos de su móvil con conversaciones tras los hechos con una testigo. Otro de los agentes, encargado de recoger muestras de pelo, ha dicho que las extrajo para descartar que hubiera cualquier sustancia química , bajo instrucción del juez, a la vez que ha dicho que ella denunció voluntariamente . ACTUACIÓN MÉDICA Mientras, un médico forense y una psicóloga han advertido de un trastorno reactivo de ansiedad en la joven, en cuya intensidad hay circunstancias que pueden estar relacionadas con violencia sexual , por una situación que atenta contra su intimidad y la exposición mediática pública . Han señalado que después de los hechos ella hace una vida completamente normal , pero no denuncia, porque reconoce que no tiene argumentos sólidos, no sabe realmente lo que ha pasado , algo que no le origina una patología, pero sí preocupación . La psicóloga ha expresado que ella tenía un poso de dudas en instantes posteriores a los hechos. El médico forense ha indicado que la patología empezó cuando le expusieron las imágenes por la Policía, a lo que ha añadido que a pesar del diagnóstico en ningún momento se recetó medicamento, ni ella lo demandó. La psicóloga ha expuesto que tenía niveles de ansiedad y fue derivada al centro de la mujer . Según ha mantenido, estos hechos han condicionado su vida de manera devastadora . SE DECLARAN INOCENTES Cabe señalar que los cuatro procesados se han acogido a su derecho a no declarar, tras mantener que son inocentes . Por su parte, la joven se ha mostrado clara, concisa y coherente en su declaración, en la que ha ratificado lo fundamental de la denuncia interpuesta tras conocer el vídeo por la Policía, según la acusación particular. Mientras, el juez ha acordado demorar hasta sentencia su decisión sobre la nulidad o no del vídeo que grabaron sobre los hechos, ocurridos en la noche del 1 de mayo de 2016 y se hicieron públicos en septiembre en la investigación de Pamplona.

alicanteplaza.es

Soy muy friki

2019-11-19

Los amantes de la Segunda, Segunda B y categorías inferiores esperamos y vivimos con emoción el sorteo de la primera ronda de la Copa del Rey. Un torneo que esta temporada estrena formato, bastante más interesante que el anterior. A partido único (hasta semis) en el campo del equipo de inferior categoría. Con los conjuntos de Primeray Segunda entrando en la competición desde el principio. Sin que los de Segunda B y Terceratengan que matarse en eliminatorias previas. Y con la excelente iniciativa de la aparición de los campeones de Regional. Podría mejorarse el sistema, con sorteo puro como en Inglaterra, pero todo ello es un avance muy importante para darle mayor atracción. Fortunas de los sorteos, la bola del Elchefue la primera que salió cuando entraron los equipos de Segunda. Su rival, la Gimnástica Segoviana. Un club de Tercera, que representa a una capital de provincia de Castilla y León. Segoviaes una ciudad de unos 51.000 habitantes, famosa por su acueducto, su alcázar y su cochinillo. Da nombre a una provincia en la que viven unos 150.000 habitantes. Menos que en Elche. El cuadro ilicitano visitará una de las zonas de la España vaciada. Lo más alto que ha visto Segovia a su equipo de fútbol recientemente es en Segunda B en tres temporadas. La última, en la 2017/2018. Elche y Gimnástica Segoviana militaron en la misma categoría hace dos años. A mediados de diciembre, se verán las caras en Copa como escuadras de Segunda y Tercera. Para nosotros, es una fiesta. Es un día para disfrutar y llenar nuestro campo. Que la gente de Segovia tenga la oportunidad de ver a un equipo de Segunda , dijo Juan Antonio Sanz, gerente de la Gimnástica Segoviana, tras el sorteo. Puestos en contexto, a muchos os parecerá una enorme tontería, pero este emparejamiento me despierta entusiasmo. Será la magia, el encanto de esta Copa del Rey. Mi pasión por el fútbol modesto. El Elche jugando en Segovia. En el estadio de La Albuera, que luce bonito y moderno con sus gradas con tonos verdes. A pesar de que la Gimnástica juega de azulgrana. Sí, soy muy friki. De esos que recorrerían toda España en su coche sólo para visitar estadios de fútbol. Y tengo la fortuna de que mi trabajo me puede llevar a ello siguiendo a mi equipo. Mfulu: Necesitaremos estar al cien por cien para ganar en Málaga El Intercity sondea al Elche para jugar la Copa en el Martínez Valero si no puede hacerlo en Sant Joan

msn.com

Iván Labanda, el nuevo profesor de OT 2020 : El reto me pone cachondo

2019-11-19

© Proporcionado por Hearst Magazines S.L.A lo mejor no te suena mucho la cara, pero seguro que reconoces la voz si le escuchas. Iván Labanda es el elegido para ser el profesor de interpretación de OT 2020. Trabajará con los concursantes cada semana cómo transmitir las canciones a la audiencia. Además, Labanda estará presente en el Casting Final del talent musical producido por RTVE en colaboración con Gestmusic Endemol. Esta gran prueba final se celebrará en Barcelona los días 25, 26 y 27 de noviembre y se verá, por primera vez, en streaming. Actor de cine, televisión, musicales y actor de doblaje, además de locutor, guionista y director de teatro.Si Zahara compuso su primera canción a los 12 años, a esa misma edad Ivan Labanda cantaba en una coral y le dieron la oportunidad de hacer un casting para un musical en el Teatro Tívoli de Barcelona. “Ahí supe que quería dedicarme a esto”. Sus primeras palabras como profesor RTVE ya ha hablado con el nuevo profesor de interpretación y lo primero que ha manifestado es: “Estoy emocionado, es un reto, nunca había afrontado nada similar y me pone bastante cachondo”. Y tiene claro que no va a ser nada fácil: “Le tengo mucho respeto, quiero hacerlo muy bien”. Es consciente de que las comparaciones con sus antecesores serán inevitables: “No me da miedo que me comparen con Los Javis. Yo como actor he trabajado en esa línea. Seré lo más honesto posible”. Labanda ha confesado que desde que recibió la oferta está escribiendo una lista de propósitos para sus clases, y a pesar de ello, no duda de que cuando tenga a los 16 alumnos delante, “por mucho que me prepare todo será diferente”. Lo que tiene claro es que “la piedra filosofal de este trabajo es ser uno mismo, con tus herramientas”. Hay que conseguir que comuniquen, traspasen las pantallas y enamoren al público, dejar de lado el ser social para buscar el artista porque en un mundo rodeado de inputs, la mayoría se dedica a copiar y no a buscar su voz personal”, ha añadido. LA TRAYECTORIA DE IVAN En teatro ha obtenido tres Premios Butaca y el Premio Teatro Barcelona como Mejor Actor Protagonista en un Musical, en la última ocasión por su interpretación como Maestro de Ceremonias en la producción Cabaret. Actualmente coprotagoniza el musical La Jaula de las Locas, junto a Àngel Llàcer, en el Teatro Rialto de Madrid. Ha estrenado más de 50 espectáculos a las órdenes de directores y dramaturgos como Sergi Belbel o Tamzin Townsend en el Teatre Nacional de Catalunya. Ha doblado más de 350 películas prestando su voz, entre otras, a los protagonistas de las sagas: Thor, Vengadores, Spider-Man, Men in Black, Los Juegos del Hambre, Divergente, Paddington, Indiana Jones, Creed, La Lego Película… También en películas musicales como El Regreso de Mary Poppins, Trolls, Frozen, Río, Smallfoot, El Libro de la Vida… interpretando, además, los temas principales como cantante. Es la voz habitual en España de Chris Hemsworth, Andrew Garfield, Shia LaBeouf, Joseph Gordon-Levitt, Justin Timberlake, Ben Whishaw, Michael B. Jordan, Jim Sturgess, Emile Hirsch, Paul Dano… entre otros. Más noticias en Msn: María Simún, la hija de Enrique Urquijo que viste a Rosalía El disgusto que se ha llevado Toñi Moreno al recoger su premio más esperado Leer más

msn.com

Iván Labanda, el nuevo profesor de OT 2020 : El reto me pone cachondo

2019-11-19

© Proporcionado por Hearst Magazines S.L.A lo mejor no te suena mucho la cara, pero seguro que reconoces la voz si le escuchas. Iván Labanda es el elegido para ser el profesor de interpretación de OT 2020. Trabajará con los concursantes cada semana cómo transmitir las canciones a la audiencia. Además, Labanda estará presente en el Casting Final del talent musical producido por RTVE en colaboración con Gestmusic Endemol. Esta gran prueba final se celebrará en Barcelona los días 25, 26 y 27 de noviembre y se verá, por primera vez, en streaming. Actor de cine, televisión, musicales y actor de doblaje, además de locutor, guionista y director de teatro.Si Zahara compuso su primera canción a los 12 años, a esa misma edad Ivan Labanda cantaba en una coral y le dieron la oportunidad de hacer un casting para un musical en el Teatro Tívoli de Barcelona. “Ahí supe que quería dedicarme a esto”. Sus primeras palabras como profesor RTVE ya ha hablado con el nuevo profesor de interpretación y lo primero que ha manifestado es: “Estoy emocionado, es un reto, nunca había afrontado nada similar y me pone bastante cachondo”. Y tiene claro que no va a ser nada fácil: “Le tengo mucho respeto, quiero hacerlo muy bien”. Es consciente de que las comparaciones con sus antecesores serán inevitables: “No me da miedo que me comparen con Los Javis. Yo como actor he trabajado en esa línea. Seré lo más honesto posible”. Labanda ha confesado que desde que recibió la oferta está escribiendo una lista de propósitos para sus clases, y a pesar de ello, no duda de que cuando tenga a los 16 alumnos delante, “por mucho que me prepare todo será diferente”. Lo que tiene claro es que “la piedra filosofal de este trabajo es ser uno mismo, con tus herramientas”. Hay que conseguir que comuniquen, traspasen las pantallas y enamoren al público, dejar de lado el ser social para buscar el artista porque en un mundo rodeado de inputs, la mayoría se dedica a copiar y no a buscar su voz personal”, ha añadido. LA TRAYECTORIA DE IVAN En teatro ha obtenido tres Premios Butaca y el Premio Teatro Barcelona como Mejor Actor Protagonista en un Musical, en la última ocasión por su interpretación como Maestro de Ceremonias en la producción Cabaret. Actualmente coprotagoniza el musical La Jaula de las Locas, junto a Àngel Llàcer, en el Teatro Rialto de Madrid. Ha estrenado más de 50 espectáculos a las órdenes de directores y dramaturgos como Sergi Belbel o Tamzin Townsend en el Teatre Nacional de Catalunya. Ha doblado más de 350 películas prestando su voz, entre otras, a los protagonistas de las sagas: Thor, Vengadores, Spider-Man, Men in Black, Los Juegos del Hambre, Divergente, Paddington, Indiana Jones, Creed, La Lego Película… También en películas musicales como El Regreso de Mary Poppins, Trolls, Frozen, Río, Smallfoot, El Libro de la Vida… interpretando, además, los temas principales como cantante. Es la voz habitual en España de Chris Hemsworth, Andrew Garfield, Shia LaBeouf, Joseph Gordon-Levitt, Justin Timberlake, Ben Whishaw, Michael B. Jordan, Jim Sturgess, Emile Hirsch, Paul Dano… entre otros. Más noticias en Msn: María Simún, la hija de Enrique Urquijo que viste a Rosalía El disgusto que se ha llevado Toñi Moreno al recoger su premio más esperado Leer más

netambulo.com

¿Qué un ‘deepfake’ y cómo crear uno?

2019-11-19

El Museo del Prado se construyó al principio como un Museo de Ciencias Naturales para apoyar al Jardín Botánico en sus investigaciones. Que el Museo del Prado ha cumplido 200 años en 2019 lo sabe casi todo el mundo, pero que al principio se construyó como un Museo de Ciencias Naturales no lo sabe tanta gente. Mira otras curiosidades del Museo del Prado, una de las mejores pinacotecas del mundo. Índice de contenidos * 1 El origen del Museo del Prado * 2 Principales obras del Museo del Prado para ver en 1 hora * 3 El videojuego del Museo del Prado * 4 Experiencia VR en el museo * 5 El lado misterios del Museo del Prado * 6 200 años del Museo del Prado EL ORIGEN DEL MUSEO DEL PRADO En 1785, Carlos III ordena al arquitecto Juan de Villanueva crear, al lado al Jardín Botánico, un Gabinete de Ciencias Naturales. Se trataba de ayudar así con las investigaciones que el Botánico venía realizando desde hacía unos años. Así es, el actual Museo del Prado inicialmente se concibió como un museo de ciencias naturales. No fue hasta Fernando VII, nieto de Carlos III, quien, convencido por su mujer, la reina María Isabel de Braganza decidió darle un giro a este museo de ciencias y convertirlo en un museo de pinturas y esculturas. Nacía así el Real Museo de Pinturas y Esculturas, un lugar donde guardar y preservar este preciado legado artístico. Sin embargo, María Isabel no pudo ver terminada su idea, murió un año antes de su inauguración, cuando solo tenía 21 años. El 19 de noviembre de 1819 se inauguró el Real Museo de Pinturas y Esculturas. La colección del museo ocupaba solo la actual planta de arriba. Por la inclinación original del terreno se entraba cómodamente desde la calle a esa planta. Las escaleras de acceso son un invento posterior. Más tarde, pasará a llamarse Museo Museo Nacional de Pintura y Escultura y, en la actualidad, Museo Nacional del Prado. Desde sus orígenes, el Museo Nacional del Prado tiene como misión conservar, exponer y estudiar esta colección estatal de obras de arte vinculadas a la historia de España. A pesar de algún que otro robo, un incendio falso (al más puro estilo Orson Welles) y una guerra civil, el Museo ha cumplido satisfactoriamente su misión de preservar las obras de arte bajo su custodia. Si quieres conocer cifras y otros datos curiosos sobre el museo, pásate por este enlace. Mira este vídeo oficial del Museo Nacional del Prado con lo más representativo de esta pinacoteca, una de las más importantes del mundo. PRINCIPALES OBRAS DEL MUSEO DEL PRADO PARA VER EN 1 HORA El Museo del Prado es uno de esos lugares mágicos donde echar, como mínimo, mediodía. Sin embargo, vivimos en la sociedad del «no tengo tiempo», en estos casos, existen un par de recorridos recomendados que, en tan solo una o dos horas, te permiten ver las principales obras (cuadros y esculturas) del Prado. Estas 15 que tienes debajo son las principales obras recomendadas para ver en el Museo del Prado si solo tienes 1 hora de tiempo libre. Si dispones de un poco más de tiempo, si tienes 2 horas este es el recorrido recomendado. En él podrás ver 30 obras. EL VIDEOJUEGO DEL MUSEO DEL PRADO Pero en el museo no es solo puedes contemplar obras de arte, también puedes jugar. Sí, como lo lees. Existe un videojuego oficial donde el protagonista tiene que recorrer el museo, visitando distintas épocas y realizando una serie de misiones. El videojuego es gratuito y lo puedes conseguir aquí. EXPERIENCIA VR EN EL MUSEO Si tienes gafas de realidad virtual (VR), puedes vivir una experiencia VR visitando con audio una sala muy especial del museo. Si no tienes gafas, también puedes ver el vídeo, pero no será lo mismo. La duración es de 15 minutos y te cuenta una parte de la historia del museo y, en concreto, de esta sala que ves en la imagen. EL LADO MISTERIOS DEL MUSEO DEL PRADO Como no podía ser menos, el Museo del Prado también tiene sus misterios, concretamente muchas de sus obras. En el libro El Maestro del Prado, Javier Sierra relata una fantástica aventura donde explica los misterios de algunos de los cuadros del museo. 200 AÑOS DEL MUSEO DEL PRADO Doscientos años no son nada. ¡¡A por más!!

laverdad.es

Deepfake

2019-11-19

La gran falsificación de hoy no necesita tecnología ni métodos sofisticados No paramos de aprender palabras nuevas. Una a la que deberíamos ir acostumbrándonos ya, porque ha venido para quedarse, es deepfake , que alude a un tipo de vídeo que vamos a hartarnos de ver. El término proviene de la fusión del concepto deep learning , que es una técnica de inteligencia artificial sin supervisión humana, y la mucho más popular fake , que significa falso. Puede que algunos lectores no tengan claro todavía lo que es un deepfake , pero apuesto a que ya han visto más de uno. Se trata de un tipo de vídeo en el que, gracias a la tecnología, se sustituyen las caras de los protagonistas por las de otras personas con un resultado asombrosamente realista. Uno de los más recientes, y muy celebrado, fue el del Equipo E , una parodia en clave electoral en la que las facciones de Casado, Rivera, Sánchez y Abascal aparecen incrustadas en los cuerpos de los forajidos de la tele Hannibal, Murdock, Templeton Peck y M. A. Mientras que Iglesias se mueve en el físico de la periodista que los acompaña. El deepfake ha pasado, en poco más de dos años, de ser una tecnología exclusiva y reservada a expertos y grandes estudios de Hollywood, a democratizarse y convertirse en una herramienta al servicio de la comedia, el show televisivo o fines más perversos, como hacer protagonista de un vídeo sexual a quien no desea serlo o manipular un fragmento de discurso para hacer a alguien decir lo que nunca ha dicho. Tarde o temprano llegará el momento en el que esta tecnología se perfeccione tanto que no podamos distinguir sus resultados de la realidad. Cualquiera podrá hacernos llegar entonces un vídeo en el que un político realice unas declaraciones o protagonice unos hechos ajenos a su persona. Va a ser un reto para todos -medios y ciudadanos- protegernos de esta manipulación tan sofisticada. De momento, lucharemos contra engaños más rudimentarios. Si echo la vista atrás, veo a una de las caras de Pablo Casado proclamando medidas de derecha dura en abril mientras otra -con barba- decía cosas mucho más moderadas en noviembre. Veo a todos los Pedros Sánchez y a todos los Pablos Iglesias -que no son pocos-, y veo a Santiago Abascal girando hacia las políticas sociales repentinamente, o a Arrimadas diciendo que «24 años de PP en Murcia son muchos», para luego mantener la sonrisa mientras su partido firma cogobernar con los populares. Ese es hoy nuestro peor enemigo. La gran falsificación actual no es la de la cara, sino la del discurso.

comunidad.movistar.es

cachondeo???

2019-11-18

cachondeo??? ‎18-11-2019 19:59 Solicito que me instalen la fibra (septiembre 2018) viene el intalador y no puede cambiar cables xq esta la canalización obstruida. Diciembre 2018, vienen a marcar la calle para cambiarla. .... a fecha de hoy nadie se ha puesto en contacto conmigo para decirme nada. Les estoy continuamente llamando y me marean de un lado para otro y no saco nada en claro. Los instaladores pasan informes que son falsos, que si no hay permisos, que si se niegan los vecinos, que si es muy complicado. QUe pasa que cuando tienen que invertir dinero para dar servicios a su cliente se niegan pero cuando es coger subvenciones para meter fibra bien que las cogen,  Alguien le ha pasado lo mismo?? solución??  Mensaje 1 de 1

noticias2d.com

¡No te pierdas la ropa exclusiva GAME de Marvel by Wismichu!

2019-11-18

Sea cual sea el mejor Crossover que tienes en tu cabeza… ¡este lo supera! Por primera vez, y de forma exclusiva, Marvel y el popular Influencer “Wismichu” (Ismael Prego) han unido fuerzas para realizar una colaboración y sacar a la venta una línea de ropa inspirada en AVENGERS. ¡Ya puedes conseguirla en GAME y te va a flipar! Estas son las prendas de la línea de ropa Exclusiva GAME en tiendas de MARVEL BY WISMICHU: * CAMISETA MARVEL BY WISMICHU – ROCKET: Si Rocket es tu Guardián de la Galaxia favorito (y nos decepcionaría mucho que no fuera así), esta también será tu camiseta favorita. * CAMISETA MARVEL BY WISMICHU – OJO DE HALCÓN: Clint Barton, el vengador con mejor puntería… ¡igual que tú por haber elegido esta preciosidad! * CAMISETA MARVEL BY WISMICHU – THANOS: Chasquearás los dedos todo el rato… ¡pero del estilazo que vas a tener con esta camiseta! * CHAQUETA MARVEL BY WISMICHU – LOS VENGADORES: En acabado rojo y con un diseño de todos los Vengadores… sí, por fin podemos usar la frase: ¡Vengadores, reuníos! * SUDADERA MARVEL BY WISMICHU – CAPITÁN AMÉRICA: Esta sudadera no está hecha de Vibranium, pero aun así te quedará de escándalo. * SUDADERA MARVEL BY WISMICHU – IRON MAN: Un homenaje perfecto para un superhéroe perfecto. Tony Stark siempre estará contigo. * GORRA MARVEL BY WISMICHU: Un diseño sencillo pero efectivo para demostrar tu pasión por los vengadores, ¡ideal para cualquier Outfit! * CINTURÓN MARVEL BY WISMICHU: Venom sujetará los pantalones y si alguien se acerca demasiado… seguro que no acaba bien, ¡este cinturón mola demasiado! * RIÑONERA MARVEL BY WISMICHU: Aquí vas a poder guardar las cosas más importantes… como tu amor por AVENGERS, ¡no te quedes sin la tuya!. Ya puedes conseguir la línea de ropa exclusiva de MARVEL BY WISMICHU de forma Exclusiva GAME en tiendas, ¡no te quedes sin ella!.

comunidad.movistar.es

Movistar - Servicio absolutamente prepotente y macarra

2019-11-18

Hola @SusanaM ,   Para un buen funcionamiento de la Comunidad, por favor intenta evitar en la medida de lo posible la repetición excesiva de mensajes y duplicidad de hilos, para así participar e intervenir conforme a las Normas y Condiciones de la Comunidad   Tienes otro hilo abierto con la misma consulta.   Cerramos este hilo por duplicidad a fin a la normativa de la Comunidad.   Saludos Belén

cadenaser.com

Michael Robinson: Es chungo llevarse la Supercopa de España a Arabia Saudí

2019-11-18

La próxima Supercopa de España llega rodeada de polémica por la decisión de la Real Federación Española de Fútbol (RFEF) de trasladar la competición a Arabia Saudí. El Barcelona, el Valencia, el Atlético de Madrid y el Real Madrid pelearán por el título entre el 8 y el 12 de enero de 2020 en Yeda, una ciudad de un país top en la vulneración de los derechos , según ha recordado Isaías Lafuente en La Ventana . Michael Robinson ha sido tajante sobre la cuestión y ha reconocido que no entiende la decisión de su amigo Luis Rubiales, presidente de la RFEF. Robinson asegura que le duele que el fútbol español lleve su fiesta a Arabia Saudí por un par de monedas de plata . De hecho, considera que es muy chungo que ese torneo se celebre en el país. RTVE fue la primera en darle la espalda a la competición al anunciar que no pujaría por los derechos de televisión. Después han tomado la misma línea Mediaset y Atresmedia. Según ha explicado Antón Meana, estos reveses no van a hacer cambiar de criterio a la Federación respecto a la sede. Hay un contrato para los tres próximos años y no se romperá salvo que Arabia Saudí incumpla alguno de sus contenidos, como la libertad de las mujeres para que puedan entrar libremente a cualquier parte de los estadios. Seguir leyendo

msn.com

Este pez con cara humana no es Photoshop ni un deepfake, sino una exótica variedad de carpa oriental

2019-11-18

© GIF: News FlareQue no quede un día sin su viral con aterradora referencias a experimentación genética. En esta ocasión nos llega del sudoeste de China, donde unos turistas han grabado a un extraño pez con facciones humanoides. El animal no es otra cosa más que una carpa fantasma. Para entender qué es una carpa fantasma hay que adentrarse un poco (solo un poco, lo prometo) en la riquísima cultura de acuariofilia procedente de China y Japón. Ambos países llevan cientos de años decorando sus jardines con espectaculares estanques llenos de peces de vivos colores. Esos peces no son otra cosa que variedades domésticas de la carpa común. Volver a reproducir video CONFIGURACIÓNDesactivado HDHQSDLO La carpa común (Cyprinus carpio) es de un color pardo o verde oliváceo. Sin embargo, a veces presenta manchas de colores mas vivos. Los granjeros chinos y japoneses criaban a las carpas como alimento porque es un pez comestible e increíblemente resistente a diferentes climas y condiciones del agua. Con el tiempo los criadores repararon en los ejemplares con manchas de colores y comenzaron a separarlos y a cruzarlos con fines ornamentales. Así nacieron las carpas Koi, que siguen siendo carpas comunes y corrientes pero cuyas escamas muestran coloridos patrones en colores blanco, rojo, anaranjado, amarillo o blanco. A comienzos del siglo XX, la decoración de estanques con carpas Koi se convirtió en un fenómeno mundial, pero es en China y Japón donde han elevado la cría de estas variedades a la categoría de arte, y donde podemos encontrar los estanques de carpas Koi más hermosos del mundo. © Foto: Carp Co.Carpas Fantasma a la venta en Carp Co.La carpa fantasma (Ghost Koi) es una de estas variedades. Su cuerpo es oscuro, pero tiene matices dorados a lo largo de toda la aleta dorsal y en la cabeza. A veces esas manchas amarillas y oscuras forman complejos patrones en la cabeza, y eso es exactamente lo que estamos viendo en este vídeo. Nuestra tendencia natural a detectar caras en todo lo que vemos hace el resto y crea una poderosa ilusión óptica (la famosa pareidolia) en la que el pez parece tener una cara humana, casi como una calavera. Se cree que la carpa fantasma fue obra de un criador británico que en los años 80 cruzó una carpa espejo (una variedad europea dotada de grandes escamas metalizadas) con una carpa Koi. De hecho los puristas de las carpas Koi la consideran un híbrido no muy deseable en sus estanques. Eso sí, parece la ideal si lo que quieres es asustar a los turistas. [Newsflare] Más en MSN: * El extraño fenómeno marítimo en México (Muy Interesante) * ¿Qué es la energía oscura y por qué es un gran misterio? (BBC News Mundo) * Estudio: niños atractivos sacan mejores notas (BBC News Mundo) * El Nilo podría ser una ventana al submundo (Gizmodo en Español) Pescador comparte las más extrañas criaturas marinas que ha pescado en su vida (Fuente: Telemundo) Leer más

cuatro.com

Banderas, memes e incluso fundas de móviles: el cachondeo de los aficionados de Gales a costa del Real Madrid

2019-11-18

Banderas, memes e incluso fundas de móviles: el cachondeo de los aficionados de Gales a costa del Real Madrid cuatro.com18/11/201915:32h. Los hinchas galeses cantaron Gales, golf y Real Madrid tras la victoria de su selección ante Azerbaiyán En Gales se lo están pasando en grande a costa del Real Madrid y Gareth Bale. Y todo gracias a Mijatovic, que dijo que sus prioridades eran su selección nacional, el golf y por último el Real Madrid. El cántico de los aficionados galeses al ganar a Azerbaiyán ha dado incluso para banderas y fundas de móviles. En las redes sociales se mofan del Real Madrid y les hace gracia la falta de compromiso de su estrella con el club blanco.  Te puede interesar

culturaocio.com

Quim Gutierrez, "un gilipollas en pijama" al rescate en el tráiler de 'El Vecino', la serie de Nach

2019-11-18

MADRID, 18 Nov. (CulturaOcio) - Ya hay fecha para El Vecino . La comedia de Nacho Vigalondo protagonizada por Quim Gutiérrez y Clara Lago se estrenará en Netflix el 31 de diciembre. Además, la plataforma ha estrenado tráiler, cartel y primeras imágenes de la serie, que se basa en las novelas gráficas de Pepo Pérez y Santiago García Quim Gutiérrez ( AzulOscuroCasiNegro , Ventajas de viajar en tren ) y Clara Lago ( Ocho apellidos vascos , La cara oculta ) dan vida en el filme de Vigalondo a Javier y a Lola, un matrimonio en el que las cosas no van del todo bien. Un día, un extraterrestre cae sobre Javier y le traspasa sus superpoderes antes de morir, obligándole a convertirse en un superhéroe contra su voluntad. Será su vecino José Ramón (Adrián Pino), quien le tenga que enseñar a usar las nuevas habilidades para el bien y a ocultar su identidad secreta. Bajo el sobrenombre de Titán , definido por la propia Lola como un gilipollas en pijama , Javier intentará aprender a controlar sus nuevos poderes para luchar contra el mal mientras busca recuperar el amor de su todavía esposa. Catalina Sopelana ( Quién te cantará ) y Adrián Pino ( Allí abajo , Grupo 7 , Malviviendo ) completan el reparto principal de la cinta, que ha estrenado, además del tráiler, cartel y primeras imágenes. El nominado al Oscar Nacho Vigalondo ( 7:35 de la mañana , Los Cronocrímenes ) dirige esta ficción creada por Miguel Esteban y Raúl Navarro (El fin de la comedia). La película se basa en las novelas gráficas de Pepo Pérez y Santiago García, protagonizadas por un particular superhéroe llamado Titán. En los cómics, Titán tiene, de forma temporal, tres habilidades: invulnerabilidad, superfuerza y vuelo. El Vecino llegará a Netflix el próximo 31 de diciembre.

hobbyconsolas.com

Ya disponible la ropa exclusiva de Marvel by Wismichu en GAME

2019-11-18

Desde GAME han anunciado que ya está disponible a través de una de sus tiendas especializadasla nueva colaboración entre Marvel y el Influencer Wismichu . El popular creador de contenido ha realizado una nueva colaboración para sacar una línea de ropa inspirada en Avengers, y ya está disponible para su compra a través de GAME. Bajo estas mismas líneas puedes ver nuestra tertulia en vídeo con spoilers de Vengadores: Endgame. Esas son las prendas de la línea de ropa Exclusiva GAME en tiendas de Marvel by Wismichu: * CAMISETA MARVEL BY WISMICHU – ROCKET: Si Rocket es tu Guardián de la Galaxia favorito, esta también será tu camiseta favorita. * CAMISETA MARVEL BY WISMICHU – OJO DE HALCÓN: Clint Barton, el vengador con mejor puntería. * CAMISETA MARVEL BY WISMICHU – THANOS: Chasquearás los dedos todo el rato. * CHAQUETA MARVEL BY WISMICHU – LOS VENGADORES: En acabado rojo y con un diseño de todos los Vengadores. * SUDADERA MARVEL BY WISMICHU – CAPITÁN AMÉRICA: Esta sudadera no está hecha de Vibranium, pero aun así te quedará de escándalo. * SUDADERA MARVEL BY WISMICHU – IRON MAN: Un homenaje perfecto. * GORRA MARVEL BY WISMICHU: Un diseño sencillo pero efectivo para demostrar tu pasión por los vengadores. * CINTURÓN MARVEL BY WISMICHU: Venom sujetará los pantalones y si alguien se acerca demasiado… seguro que no acaba bien. * RIÑONERA MARVEL BY WISMICHU: Aquí vas a poder guardar las cosas más importantes. Y si quieres consultar otras novedades que nos ha dejado GAME en las últimas horas, no te pierdas sus bajadas de precio semanales,los contenidos exclusivos y accesorios de Pokémon Espada y Escudo,la edición especial de Nioh 2, los incentivos de reserva de Final Fantasy VII Remake, o todo lo que conseguiremos con la edición coleccionista de WRC 8. Hobbyconsolas para GAME Comentar Y ADEMÁS

mundodeportivo.com

Cachondeo por el comentario de Pedro J. Ramírez sobre sus inclinaciones políticas

2019-11-17

El periodista acudió como invitado al programa ‘La Sexta Noche’ El acuerdo alcanzado a principios de semana entre Pedro Sánchez y Pablo Iglesias para formar gobierno sigue trayendo cola. Tanto los partidarios como los detractores del pacto están exponiendo sus argumentos en las diferentes tertulias y programas de televisión. * Cine y Televisión Mamen Mendizábal arrasa con su mensaje a una diputada de VOX * Cine y Televisión Mónica Naranjo agita las redes con un comentario sobre Vox * Actualidad Rosalía, otra vez protagonista tras el acuerdo entre Sánchez e Iglesias * Gente El tuit de Évole que ha arrasado en la noche electoral: 60.000 likes en pocas horas Uno de los últimos en pronunciarse ha sido Pedro J. Ramírez, que acudió al plató de ‘La Sexta Noche’ para dejar claro que está en la lista de los detractores. De hecho, el director de ‘El Español’ propuso convocar una marcha, organizada por “una plataforma cívica”, desde la sede del PSOE hasta la del PP para reclamar un acuerdo entre ambos partidos. “Convocar a los constitucionalistas de centro, de izquierdas y de derechas, a los moderados, los que creemos en la transversalidad, los que no nos consideramos ni de izquierdas ni de derechas, ni rojos ni azules. Imagínate”, fueron las palabras de Ramírez. Pues bien, eso de que no es “ni de izquierdas ni de derechas” no pareció convencer a muchos espectadores, que mostraron su incredulidad de formas muy diferentes, que van desde la indignación al cachondeo.

elsiglodedurango.com.mx

Deepfakes, videos falsos cada vez más reales

2019-11-16

sáb 16 nov 2019, 5:44pm 1 de 2 Deepfakes, videos falsos cada vez más reales Expertos en seguridad alertan sobre el crecimiento acelerado de Deepfakes, contenidos que, mediante el uso de tecnología basada en Inteligencia Artificial, consiguen intercambiar el rostro de una persona. (ARCHIVO) COMENTAR Expertos en seguridad alertan sobre el crecimiento acelerado de Deepfakes, contenidos que, mediante el uso de tecnología basada en Inteligencia Artificial, consiguen intercambiar el rostro de una persona y falsificar sus gestos para hacer parecer que están haciendo algo que en la realidad no ha sucedido. Es una tecnología que está en plena evolución y viene acompañada con la cada vez mayor capacidad de procesamiento. El perfil de los atacantes es de un nivel sofisticado en cuanto al uso de herramientas y con un objetivo puntual de quien están reemplazando , señaló Luis Lubeck, especialista en seguridad informática de ESET Latinoamérica. También explicó que si el algoritmo de una deepfake tiene suficientes datos del sujeto que reemplaza alguien más puede usar la tecnología para manipular el mismo video. Durante el Foro ESET de seguridad informática 2019, el investigador de la compañía eslovaca, compartió que actualmente los deepfakes van dirigidos a los famosos o a personas cuya imagen se encuentra totalmente expuesta en la red. Asimismo, Lubeck advirtió que hoy existe una proliferación de sitios web que ya ofrecen generar videos pornográficos para hacerles una broma pesada a los conocidos. Hay sitios web que ofrecen generar videos pornográficos con carácter recreativo en donde se sustituye la cara de una persona en un video íntimo. Pero, ¿quién está verificando que ese video no se está elaborando para extorsionar a las personas? , cuestionó Lubeck. Un informe elaborado por Deeptrace, firma que utiliza el aprendizaje profundo y la visión por computadora para detectar y monitorear videos falsos generados por IA, indica que la cantidad de deepfakes disponibles online se ha duplicado este año con respecto a diciembre de 2018, al contabilizar 14 mil 678 videos. Según el informe, ese aumento se debió fundamentalmente a la pornografía. De hecho, el porcentaje de deepfakes pornográficos representan un 96%, en la mayoría de los casos protagonizados por famosas del ámbito de la música y la actuación. En el marco del Foro ESET Latinoamérica, celebrado en Cancún, Quintana Roo, el especialista de la firma de seguridad informática explicó que es importante que se conozca que existe una tecnología como deepfake para que se tome conciencia de los alcances que este tipo de videos pueden alcanzar. Años atrás se hablaba de las granjas de trolls, pagadas por operadores de marketing para posicionar una campaña o una marca. En el futuro se prevé que suceda lo mismo con los videos: que haya personas cruzando la línea de lo ilegal y generen contenidos falsos para posicionar una marca e, incluso, hasta para impulsar la campaña de un candidato político , mencionó Luis Lubeck. En ese sentido ESET considera que las empresas tecnológicas tienen el gran desafío de generar algoritmos de inteligencia artificial capaces de detectar lo antes posible noticias y videos falsos que podrían dañar la moral de una persona o generar un impacto negativo en una comunidad. Mientras eso sucede, hay proyectos de ley en Estados Unidos que harían ilegal crear una falsificación de alguien sin su consentimiento. Los casos más sonados. Las mujeres famosas son los blancos favoritos de los que roban identidades para los deepfake. Entre los casos más conocidos está el de la actriz Gal Gadot que, tras el éxito de la cinta Wonder Woman, se vio involucrada en un video deepfake porno. Lo mismo sufrieron Taylor Swift y Scarlett Johansson. Pero no son las únicas. Este año comenzó a circular en Instagram un video en donde pareciera que Mark Zuckerberg, CEO y fundador de Facebook, habla de su poder de controlar todos los datos de millones de personas, sus secretos, sus vidas. La tecnología también ha sido utilizada para llevar a cabo fraudes. ESET señala que el CEO de una firma británica no identificada pensó que estaba hablando por teléfono con el CEO de la sucursal alemana y siguió las órdenes de transferir alrededor 244 mil dólares a la cuenta bancaria de un proveedor húngaro. Por ello es necesario generar estrategias de seguridad ante esta amenaza. Expertos en seguridad alertan sobre el crecimiento acelerado de Deepfakes, contenidos que, mediante el uso de tecnología basada en Inteligencia Artificial, consiguen intercambiar el rostro de una persona. (ARCHIVO) RELACIONADAS

es.noticias.yahoo.com

CACHONDEO CON ESTA FOTO DE RAJOY CON ARNOLD SCHWARZENEGGER

2019-11-16

Vicente Fox, Arnold Schwarzenegger y Mariano Rajoy. España se ha levantado este sábado con una de las imágenes más sorprendentes y llamativas de la actualidad política. Mariano Rajoy, expresidente del Gobierno, con otro expresidente, el mexicano Vicente Fox, y una leyenda del cine de acción: Arnold Schwarzenegger. data-reactid= 17 Y no nos referimos a un nuevo abrazo entre Pedro Sánchez y Pablo Iglesias, sino al posado de Mariano Rajoy, expresidente del Gobierno, con otro expresidente, el mexicano Vicente Fox, y una leyenda del cine de acción: Arnold Schwarzenegger. en su cuenta de Twitter con el siguiente texto: “Gigantesco evento en Centro Fox. Grandes y espectaculares mensajes e ideas”. data-reactid= 18 La ha publicado el propio Fox en su cuenta de Twitter con el siguiente texto: “Gigantesco evento en Centro Fox. Grandes y espectaculares mensajes e ideas”. Gigantesco evento en Centro Fox. Grandes y espectaculares mensajes e ideas. pic.twitter.com/b9JSYfhNIb — Vicente Fox Quesada (@VicenteFoxQue) November 15, 2019 Pero para “grandes y espectaculares mensajes e ideas” las que han surgido a raíz de la fotografía, que ha generado un notable cachondeo en España. Imaginaos a Rajoy diciendo Schwarzenegger. https://t.co/DApVPgvNRh — Clausman (@cl4usman) November 15, 2019 Uno de los mejores actores de la historia junto a Vicente Fox y Arnold Schwarzenegger. pic.twitter.com/lmqVeevRaM — Donald Trump ᶠᵃᵏᵉ (@magnateUSA) November 16, 2019 Ha tardado en salir pero creo que ya tenemos la mejor foto del 2019. https://t.co/1KoC8IG4xy — Numeritos (@08181) November 15, 2019 Qué buena pinta tiene la nueva de Los Mercenarios. pic.twitter.com/Dya9jmnMTX — Alvaro Velasco (@alvaro_velasco) November 15, 2019 Es el terminator el que elige al líder de la resistencia y es el líder de la resistencia el que quiere que sean los terminators los líderes de la resistencia. https://t.co/BVI34UvVtK — Hipnogato Molestao con Dedito (@BrunoPazCabillo) November 16, 2019 CHILLO https://t.co/chJUBDXqpy — Blanca (@santisimablanca) November 15, 2019 Automáticamente se ha convertido en mi foto preferida del 2019 https://t.co/nB4fTJnF8g — SrFilloas (@SrFilloas) November 16, 2019 QUE COÑO ACABO DE VER https://t.co/sBh20IuoWX — Cobretti (@cobretti308) November 15, 2019 PeroperoperoperoPEROPERO Sigue leyendo en El HuffPost data-reactid= 30 Sigue leyendo en El HuffPost

huffingtonpost.es

Cachondeo con esta foto de Rajoy con Arnold Schwarzenegger

2019-11-16

Ha tardado en salir pero ya tenemos la mejor foto de 2019 , han ironizado en Twitter. España se ha levantado este sábado con una de las imágenes más sorprendentes y llamativas de la actualidad política. Y no nos referimos a un nuevo abrazo entre Pedro Sánchez y Pablo Iglesias, sino al posado de Mariano Rajoy, expresidente del Gobierno, con otro expresidente, el mexicano Vicente Fox, y una leyenda del cine de acción: Arnold Schwarzenegger. La ha publicado el propio Fox en su cuenta de Twitter con el siguiente texto: “Gigantesco evento en Centro Fox. Grandes y espectaculares mensajes e ideas”. Gigantesco evento en Centro Fox. Grandes y espectaculares mensajes e ideas. pic.twitter.com/b9JSYfhNIb Pero para “grandes y espectaculares mensajes e ideas” las que han surgido a raíz de la fotografía, que ha generado un notable cachondeo en España. Imaginaos a Rajoy diciendo Schwarzenegger. https://t.co/DApVPgvNRh Uno de los mejores actores de la historia junto a Vicente Fox y Arnold Schwarzenegger. pic.twitter.com/lmqVeevRaM Ha tardado en salir pero creo que ya tenemos la mejor foto del 2019. https://t.co/1KoC8IG4xy Qué buena pinta tiene la nueva de Los Mercenarios. pic.twitter.com/Dya9jmnMTX Es el terminator el que elige al líder de la resistencia y es el líder de la resistencia el que quiere que sean los terminators los líderes de la resistencia. https://t.co/BVI34UvVtK CHILLO https://t.co/chJUBDXqpy Automáticamente se ha convertido en mi foto preferida del 2019 https://t.co/nB4fTJnF8g QUE COÑO ACABO DE VER https://t.co/sBh20IuoWX PeroperoperoperoPEROPERO https://t.co/Gj9gXgKBgR A VER POR FAVOR ayudadme a procesar esto. https://t.co/rbBaRWddhY Pintaza la próxima de Terminator https://t.co/RODu67bZZY La Liga de los Hombres Extraordinarios. https://t.co/A18V1laJge - Humanos del siglo XXI, Skynet me reenvía porque ignorasteis los avisos del androide M.Arian0. ¿Por qué le desobedecisteis? - Hablaba raro - Hiblibi riri, hiblibi riri, vesh como shon, Empineitor, muy malosh y mucho malosh. Me hacen cosas! - Beam me up, Skynet. Uno solo! https://t.co/AzZ3dRee3I QUÉ ESTÁN VIENDO MIS OJOS. https://t.co/kQGemUWhXH Terminator no es cosa menor. Dicho de otra manera, es cosa mayor. https://t.co/QtaEh03g9f Trifachito bien https://t.co/C16tgEyc6d Que alguien me explique este crossover que no lo entiendo. https://t.co/NF7brFiKgP

msn.com

Cachondeo con esta foto de Rajoy con Arnold Schwarzenegger

2019-11-16

© TWITTER: VICENTE FOXVicente Fox, Arnold Schwarzenegger y Mariano Rajoy.España se ha levantado este sábado con una de las imágenes más sorprendentes y llamativas de la actualidad política. Y no nos referimos a un nuevo abrazo entre Pedro Sánchez y Pablo Iglesias, sino al posado de Mariano Rajoy, expresidente del Gobierno, con otro expresidente, el mexicano Vicente Fox, y una leyenda del cine de acción: Arnold Schwarzenegger. La ha publicado el propio Fox en su cuenta de Twitter con el siguiente texto: “Gigantesco evento en Centro Fox. Grandes y espectaculares mensajes e ideas”. Gigantesco evento en Centro Fox. Grandes y espectaculares mensajes e ideas. pic.twitter.com/b9JSYfhNIb — Vicente Fox Quesada (@VicenteFoxQue) November 15, 2019Pero para “grandes y espectaculares mensajes e ideas” las que han surgido a raíz de la fotografía, que ha generado un notable cachondeo en España. Imaginaos a Rajoy diciendo Schwarzenegger. https://t.co/DApVPgvNRh — Clausman (@cl4usman) November 15, 2019Uno de los mejores actores de la historia junto a Vicente Fox y Arnold Schwarzenegger. pic.twitter.com/lmqVeevRaM — Donald Trump ᶠᵃᵏᵉ (@magnateUSA) November 16, 2019Ha tardado en salir pero creo que ya tenemos la mejor foto del 2019. https://t.co/1KoC8IG4xy — Numeritos (@08181) November 15, 2019Qué buena pinta tiene la nueva de Los Mercenarios. pic.twitter.com/Dya9jmnMTX — Alvaro Velasco (@alvaro_velasco) November 15, 2019Es el terminator el que elige al líder de la resistencia y es el líder de la resistencia el que quiere que sean los terminators los líderes de la resistencia. https://t.co/BVI34UvVtK — Hipnogato Molestao con Dedito (@BrunoPazCabillo) November 16, 2019CHILLO https://t.co/chJUBDXqpy — Blanca (@santisimablanca) November 15, 2019Automáticamente se ha convertido en mi foto preferida del 2019 https://t.co/nB4fTJnF8g — SrFilloas (@SrFilloas) November 16, 2019QUE COÑO ACABO DE VER https://t.co/sBh20IuoWX — Cobretti (@cobretti308) November 15, 2019PeroperoperoperoPEROPERO https://t.co/Gj9gXgKBgR — Sperm Whale Smile de la pradera (@frikicongafas) November 16, 2019A VER POR FAVOR ayudadme a procesar esto. https://t.co/rbBaRWddhY — Saúl F. Borel (@SaulTieneTuiter) November 16, 2019Pintaza la próxima de Terminator https://t.co/RODu67bZZY — Sir MrM (@Sir_MrM) November 16, 2019La Liga de los Hombres Extraordinarios. https://t.co/A18V1laJge — Álvaro BC?? (@el_ataman) November 15, 2019- Humanos del siglo XXI, Skynet me reenvía porque ignorasteis los avisos del androide M.Arian0. ¿Por qué le desobedecisteis? - Hablaba raro - Hiblibi riri, hiblibi riri, vesh como shon, Empineitor, muy malosh y mucho malosh. Me hacen cosas! - Beam me up, Skynet. Uno solo! https://t.co/AzZ3dRee3I — Alberto Fdez. Soto (@AlbertoFdezSoto) November 16, 2019QUÉ ESTÁN VIENDO MIS OJOS. https://t.co/kQGemUWhXH — Fiódor (@f_raskolnikov) November 15, 2019Terminator no es cosa menor. Dicho de otra manera, es cosa mayor. https://t.co/QtaEh03g9f — Paloma Rando (@palomarando) November 15, 2019Trifachito bien https://t.co/C16tgEyc6d — el Mago Ponci (@magicponci) November 16, 2019Que alguien me explique este crossover que no lo entiendo. https://t.co/NF7brFiKgP — Fer AKA Aburrido (@Sr_Aburrido) November 16, 2019 Más en MSN: * La aplaudida respuesta de Equipo de Investigación a esta grave acusación en Twitter (El HuffPost) * Los paisajes y la gastronomía de La Gomera llegan a más de 20 millones de espectadores en Alemania (20 minutos) * Quién ganó el Nobel de Literatura el año que naciste (Verne) * Un joven propone un Tsunami murciano para frenar a Vox en la región y se hace viral (Vozpópuli) Leer más

forocoches.com

Qué es lo más chungo o guarro que habéis visto en un campame...

2019-11-16

Qu? es lo m?s chungo o guarro que hab?is visto en un campamento o casa rural? Usuario Ir a Página...   Qu? es lo m?s chungo o guarro que hab?is visto en un campamento o casa rural?   Ene 2018 | 1.472 Mens. Dic 2011 | 8.500 Mens. Qu? es lo m?s chungo o guarro que hab?is visto en un campamento o casa rural? Vale cualquier cosa de ese estilo. Unos habr?n vivido ambas pero otros solo un tipo de experiencia. Qu? es lo peor que hab?is visto?

elsiglodedurango.com.mx

Videos falsos de ' Deepfakes' cada vez más reales

2019-11-15

Videos falsos de Deepfakes cada vez más reales Videos de Deepfakes son difundidos a través de redes sociales. COMENTAR Expertos en seguridad alertan sobre el crecimiento acelerado de Deepfakes, contenidos que, mediante el uso de tecnología basada en Inteligencia Artificial, consiguen intercambiar el rostro de una persona y falsificar sus gestos para hacer parecer que están haciendo algo que en la realidad no ha sucedido. Es una tecnología que está en plena evolución y viene acompañada con la cada vez mayor capacidad de procesamiento. El perfil de los atacantes es de un nivel sofisticado en cuanto al uso de herramientas y con un objetivo puntual de quien están reemplazando , señaló Luis Lubeck, especialista en seguridad informática de ESET Latinoamérica. También explicó que si el algoritmo de una deepfake tiene suficientes datos del sujeto que reemplaza alguien más puede usar la tecnología para manipular el mismo video. Durante el Foro ESET de seguridad informática 2019, el investigador de la compañía eslovaca, compartió que actualmente los deepfakes van dirigidos a los famosos o a personas cuya imagen se encuentra totalmente expuesta en la red. Asimismo, Lubeck advirtió que hoy existe una proliferación de sitios web que ya ofrecen generar videos pornográficos para hacerles una broma pesada a los conocidos. Hay sitios web que ofrecen generar videos pornográficos con carácter recreativo en donde se sustituye la cara de una persona en un video íntimo. Pero, ¿quién está verificando que ese video no se está elaborando para extorsionar a las personas? , cuestionó Lubeck. Un informe elaborado por Deeptrace, firma que utiliza el aprendizaje profundo y la visión por computadora para detectar y monitorear videos falsos generados por IA, indica que la cantidad de deepfakes disponibles online se ha duplicado este año con respecto a diciembre de 2018, al contabilizar 14 mil 678 videos. Según el informe, ese aumento se debió fundamentalmente a la pornografía. De hecho, el porcentaje de deepfakes pornográficos representan un 96%, en la mayoría de los casos protagonizados por famosas del ámbito de la música y la actuación. En el marco del Foro ESET Latinoamérica, celebrado en Cancún, Quintana Roo, el especialista de la firma de seguridad informática explicó que es importante que se conozca que existe una tecnología como deepfake para que se tome conciencia de los alcances que este tipo de videos pueden alcanzar. Años atrás se hablaba de las granjas de trolls, pagadas por operadores de marketing para posicionar una campaña o una marca. En el futuro se prevé que suceda lo mismo con los videos: que haya personas cruzando la línea de lo ilegal y generen contenidos falsos para posicionar una marca e, incluso, hasta para impulsar la campaña de un candidato político , mencionó Luis Lubeck. En ese sentido ESET considera que las empresas tecnológicas tienen el gran desafío de generar algoritmos de inteligencia artificial capaces de detectar lo antes posible noticias y videos falsos que podrían dañar la moral de una persona o generar un impacto negativo en una comunidad. Mientras eso sucede, hay proyectos de ley en Estados Unidos que harían ilegal crear una falsificación de alguien sin su consentimiento. Los casos más sonados. Las mujeres famosas son los blancos favoritos de los que roban identidades para los deepfake. Entre los casos más conocidos está el de la actriz Gal Gadot que, tras el éxito de la cinta Wonder Woman, se vio involucrada en un video deepfake porno. Lo mismo sufrieron Taylor Swift y Scarlett Johansson. Pero no son las únicas. Este año comenzó a circular en Instagram un video en donde pareciera que Mark Zuckerberg, CEO y fundador de Facebook, habla de su poder de controlar todos los datos de millones de personas, sus secretos, sus vidas. La tecnología también ha sido utilizada para llevar a cabo fraudes. ESET señala que el CEO de una firma británica no identificada pensó que estaba hablando por teléfono con el CEO de la sucursal alemana y siguió las órdenes de transferir alrededor 244 mil dólares a la cuenta bancaria de un proveedor húngaro. Por ello es necesario generar estrategias de seguridad ante esta amenaza. Videos de Deepfakes son difundidos a través de redes sociales. RELACIONADAS

elsiglodetorreon.com.mx

Deepfakes, videos falsos cada vez más reales

2019-11-15

https://www.elsiglodetorreon.com.mx/noticia/1642287.deepfakes-videos-falsos-cada-vez-mas-reales.html Enlace copiado Expertos en seguridad alertan sobre el crecimiento acelerado de Deepfakes, contenidos que, mediante el uso de tecnología basada en Inteligencia Artificial, consiguen intercambiar el rostro de una persona y falsificar sus gestos para hacer parecer que están haciendo algo que en la realidad no ha sucedido. Es una tecnología que está en plena evolución y viene acompañada con la cada vez mayor capacidad de procesamiento. El perfil de los atacantes es de un nivel sofisticado en cuanto al uso de herramientas y con un objetivo puntual de quien están reemplazando , señaló Luis Lubeck, especialista en seguridad informática de ESET Latinoamérica. También explicó que si el algoritmo de una deepfake tiene suficientes datos del sujeto que reemplaza alguien más puede usar la tecnología para manipular el mismo video. Durante el Foro ESET de seguridad informática 2019, el investigador de la compañía eslovaca, compartió que actualmente los deepfakes van dirigidos a los famosos o a personas cuya imagen se encuentra totalmente expuesta en la red. Asimismo, Lubeck advirtió que hoy existe una proliferación de sitios web que ya ofrecen generar videos pornográficos para hacerles una broma pesada a los conocidos. Hay sitios web que ofrecen generar videos pornográficos con carácter recreativo en donde se sustituye la cara de una persona en un video íntimo. Pero, ¿quién está verificando que ese video no se está elaborando para extorsionar a las personas? , cuestionó Lubeck. Un informe elaborado por Deeptrace, firma que utiliza el aprendizaje profundo y la visión por computadora para detectar y monitorear videos falsos generados por IA, indica que la cantidad de deepfakes disponibles online se ha duplicado este año con respecto a diciembre de 2018, al contabilizar 14 mil 678 videos. Según el informe, ese aumento se debió fundamentalmente a la pornografía. De hecho, el porcentaje de deepfakes pornográficos representan un 96%, en la mayoría de los casos protagonizados por famosas del ámbito de la música y la actuación. En el marco del Foro ESET Latinoamérica, celebrado en Cancún, Quintana Roo, el especialista de la firma de seguridad informática explicó que es importante que se conozca que existe una tecnología como deepfake para que se tome conciencia de los alcances que este tipo de videos pueden alcanzar. Años atrás se hablaba de las granjas de trolls, pagadas por operadores de marketing para posicionar una campaña o una marca. En el futuro se prevé que suceda lo mismo con los videos: que haya personas cruzando la línea de lo ilegal y generen contenidos falsos para posicionar una marca e, incluso, hasta para impulsar la campaña de un candidato político , mencionó Luis Lubeck. En ese sentido ESET considera que las empresas tecnológicas tienen el gran desafío de generar algoritmos de inteligencia artificial capaces de detectar lo antes posible noticias y videos falsos que podrían dañar la moral de una persona o generar un impacto negativo en una comunidad. Mientras eso sucede, hay proyectos de ley en Estados Unidos que harían ilegal crear una falsificación de alguien sin su consentimiento. Los casos más sonados. Las mujeres famosas son los blancos favoritos de los que roban identidades para los deepfake. Entre los casos más conocidos está el de la actriz Gal Gadot que, tras el éxito de la cinta Wonder Woman, se vio involucrada en un video deepfake porno. Lo mismo sufrieron Taylor Swift y Scarlett Johansson. Pero no son las únicas. Este año comenzó a circular en Instagram un video en donde pareciera que Mark Zuckerberg, CEO y fundador de Facebook, habla de su poder de controlar todos los datos de millones de personas, sus secretos, sus vidas. La tecnología también ha sido utilizada para llevar a cabo fraudes. ESET señala que el CEO de una firma británica no identificada pensó que estaba hablando por teléfono con el CEO de la sucursal alemana y siguió las órdenes de transferir alrededor 244 mil dólares a la cuenta bancaria de un proveedor húngaro. Por ello es necesario generar estrategias de seguridad ante esta amenaza.

elsiglodetorreon.com.mx

Videos falsos de ' Deepfakes' cada vez más reales

2019-11-15

Expertos en seguridad alertan sobre el crecimiento acelerado de Deepfakes, contenidos que, mediante el uso de tecnología basada en Inteligencia Artificial, consiguen intercambiar el rostro de una persona y falsificar sus gestos para hacer parecer que están haciendo algo que en la realidad no ha sucedido. Es una tecnología que está en plena evolución y viene acompañada con la cada vez mayor capacidad de procesamiento. El perfil de los atacantes es de un nivel sofisticado en cuanto al uso de herramientas y con un objetivo puntual de quien est ... Más información en El Siglo de Torreón

levante-emv.com

'Deepfake': suplantaciones y mentiras del siglo XXI

2019-11-15

Deepfake : suplantaciones y mentiras del siglo XXI a. p. j. | val?ncia 15.11.2019 | 13:46 Los deepfake se desarrollan paralelamente al perfeccionamiento de los efectos especiales de la industria cinematogr?fica estadounidense. Levante-EMV Los deepfake se desarrollan paralelamente al perfeccionamiento de los efectos especiales de la industria cinematogr?fica estadounidense. Esta t?cnica de realidad virtual se utiliza para manipular videos e incide especialmente en las mujeres a trav?s de la falsificaci?n de contenido pornogr?fico Mark Zuckerberg, creador de Facebook, admitiendo el inimaginable poder que ostenta al poseer un incontable volumen de información capaz de hacerle tener el control del futuro o, por el contrario, la actriz británica Emma Watson protagonizando una película pornográfica. Hechos dispares que, no obstante, comparten un elemento común: ambos son falsos. La sociedad tecnológica vive inmersa en un escenario en el que son las noticias las que encuentran a las personas. Es el denominado fenómeno news found me , uno en que el consumo inmediato de piezas informativas hace que la desinformación generalizada sea una premisa básica ante la saturación de datos. En este contexto difuso, supeditado al tráfico y rentabilidad en el que la veracidad queda relegada a un segundo plano, es cuando surgen las fake news . Y es que, las noticias falsas se han asentado en la forma de producir y consumir noticias. Además, el avance tecnológico, como la Inteligencia Artificial, redimensiona el campo de actuación e incidencia de estas mentiras viralizadas, dando lugar a las deepfake . ¿Qué es una deepfake ? Se denomina deepfake a la técnica utilizada para generar capas artificiales sobre los rasgos faciales de una persona, como la boca o la nariz, y superponerlos a videos reales. Es decir, se trata de unir dos rostros mediante la tecnología para crear un video falso. A través de softwares cada vez más accesibles se utilizan algoritmos de aprendizaje automáticos no supervisados -Red Generativa Antagónica- sobre contenido ya existente. El resultado es la simulación de movimiento en el nuevo rostro creado, con tanta precisión en algunos casos que llega a parecer real. Y es que, los deepfake se desarrollan paralelamente al perfeccionamiento de los efectos especiales de la industria cinematográfica estadounidense. Así, Hollywood es la cuna de estas mentiras humanizadas y, del mismo modo, sus estrellas las principales afectadas. Los deepfake más virales Los insultos de Barack Obama Hace tan solo dos años se difundió en Estados Unidos un video de Barack Obama en el que se puede observar al expresidente americano detallando los desafíos que presentan los deepfake , unos capaces de comprometer la seguridad de la sociedad a través de los infinitos canales de comunicación que se establecen en Internet. Un par de minutos son suficientes para que Obama insulte Donald Trump, llamándolo mierda (dipshit) y reflexione sobre la confianza que las personas depositan en los contenidos digitales que consumen. Su creador, el director cinematográfico Jordan Peele, utilizó la Inteligencia Artificial para concienciar sobre sus peligros sirviéndose de la misma. De hecho, el estudio Artificial Intelligence and International Security, elaborado por el Centro de Seguridad Americano, establece que en menos de un lustro los deepfake serán capaces de engañar a las personas para difundir contenido partidista manipulado. Tanto es así, que la nueva era de la desinformación plantea un escenario adversos del que las grandes potencias políticas ya son conocedoras y ante el que no dudan en expresar su alarma de cara a los próximos comicios estadounidenses de 2020. Actrices de Hollywood en la industria del porno Durante este año ya han sido detectados más de 14.000 videos deepfake , de los cuales el 96 % son de contenido pornográfico y están protagonizados por mujeres mayoritariamente. Así lo establece el último monográfico de Deeptrace, una empresa que da soluciones a este tipo de contenido con el objetivo de garantizar la integridad del medio visual. Las víctimas de la manipulación, que va desde escenas de sexo explícito hasta desnudos o insinuaciones, es tan amplia como difusa. Actrices, modelos, cantantes, periodistas y, también, personas comunes que no forman parte de la escena mediática. Desde Scarlett Johansson hasta Emma Watson, sin olvidar a Gal Gadot, Cameron Diaz o Mila Kunis, entre otras, estas reconocidas actrices han sido víctimas de un engaño que se extrapola a la vida cotidiana y afecta a mujeres anónimas. El estudio anteriormente mencionado evidencia que existen foros y páginas webs específicas en las que los usuarios crean y comparten a demanda videos deepfake de mujeres que conocen con el fin de desacreditarlas. Ante este hecho, diversas redes sociales como Twitter o plataformas de contenido adulto, como es el caso de PornHub, han prohibido la publicación de estas falsificaciones en sus portales.

val.levante-emv.com

Deepfake : suplantacions i mentides del segle XXI

2019-11-15

Esta tècnica de realitat virtual es utilitza per a manipular videos i incidix especialment en les dones a través de la falsificació de contingut pornogràfic Mark Zuckerberg, creador de Facebook, admetent l inimaginable poder que ostenta en posseir un incomptable volum d informació capaç de fer-li tindre el control del futur o, per contra, l actriu britànica Emma Watson protagonitzant una pel·lícula pornogràfica. Fets dispars que, tanmateix, compartixen un element comú: tots dos són falsos. La societat tecnològica viu immersa en un escenari en el qual són les notícies les que troben a les persones. És el denominat fenomen news found em , un que el consum immediat de peces informatives fa que la desinformació generalitzada siga una premissa bàsica davant la saturació de dades. En este context difús, supeditat al trànsit i rendibilitat en el qual la veieracitat queda relegada a un segon pla, és quan sorgixen les fake news . I és que, les notícies falses s han assentat en la forma de produir i consumir notícies. A més, l avanç tecnològic, com la Intel·ligència artificial, redimensiona el camp d actuació i incidència d estes mentides viralizadas, donant lloc a les deepfake . QUÈ ÉS UNA DEEPFAKE ? Es denomina deepfake a la tècnica utilitzada per a generar capes artificials sobre els trets facials d una persona, com la boca o el nas, i superposar-los a videos reals. És a dir, es tracta d unir dos rostres mitjançant la tecnologia per a crear un video fals. A través de programaris cada vegada més accessibles es utilitzen algoritmes d aprenentatge automàtics no supervisats -Xarxa Generativa Antagònica- sobre contingut ja existent. El resultat és la simulació de moviment en el nou rostre creat, amb tanta precisió en alguns casos que arriba a paréixer real. I és que, els deepfake es desenvolupen paral·lelament al perfeccionament dels efectes especials de la indústria cinematogràfica nord-americana. Així, Hollywood és el bressol d estes mentides humanitzades i, de la mateixa manera, les seues estreles les principals afectades. ELS DEEPFAKE MÉS VIRALS ELS INSULTS DE BARACK OBAMA Fa tan sols dos anys es va difondre als Estats Units un video de Barack Obama en el qual es pot observar l expresident americà detallant els desafiaments que presenten els deepfake , uns capaços de comprometre la seguretat de la societat a través dels infinits canals de comunicació que s establixen en Internet. Un parell de minuts són suficients perquè Obama insulte Donald Trump, cridant-ho merda (dipshit) i reflexione sobre la confiança que les persones depositen en els continguts digitals que consumixen. El seu creador, el director cinematogràfic Jordan Peele, va utilitzar la Intel·ligència artificial per a conscienciar sobre els seus perills servint-se de la mateixa. De fet, l estudi Artificial Intelligence and International Security, elaborat pel Centre de Seguretat Americà, establix que en menys d un lustre els deepfake seran capaços d enganyar a les persones per a difondre contingut partidista manipulat. Tant és així, que la nova era de la desinformació planteja un escenari adversos del que les grans potències polítiques ja són coneixedores i davant el qual no dubten a expressar la seua alarma de cara als pròxims comicis nord-americans de 2020. ACTRICES DE HOLLYWOOD EN LA INDÚSTRIA DEL PORNO Durant enguany ja han sigut detectats més de 14.000 videos deepfake , dels quals el 96 % són de contingut pornogràfic i estan protagonitzats per dones majoritàriament. Així ho establix l últim monogràfic de Deeptrace, una empresa que dona solucions a este tipus de contingut amb l objectiu de garantir la integritat del mitjà visual. Les víctimes de la manipulació, que va des d escenes de sexe explícit fins a nus o insinuacions, és tan àmplia com a difusa. Actrius, models, cantants, periodistes i, també, persones comunes que no formen part de l escena mediàtica. Des de Scarlett Johansson fins a Emma Watson, sense oblidar a Gal Gadot, Cameron Diaz o Mila Kunis, entre altres, estes reconegudes actrius han sigut víctimes d un engany que s extrapola a la vida quotidiana i afecta a dones anònimes. L estudi anteriorment esmentat evidència que existixen fòrums i pàgines webs específiques en les quals els usuaris creen i compartixen a demanda videos deepfake de dones que coneixen amb la finalitat de desacreditar-les. Davant este fet, diverses xarxes socials com Twitter o plataformes de contingut adult, com és el cas de PornHub, han prohibit la publicació d estes falsificacions en els seus portals. ALTRES DEEPFAKE D INTERÉS

silicon.es

A fondo: Los ‘deepfakes’ van más allá del entretenimiento. Y ya son peligrosos

2019-11-15

Meneame Aggregator En los últimos años estamos asistiendo al ‘boom’ de los deepfakes, montajes de vídeo en los que se cambia la cara del protagonista. ¿Cuáles suelen ser sus objetivos? ¿Cómo podemos neutralizarlos? El término deepfake procede de la unión de ‘deep learning’, una de las ramas de la inteligencia artificial, y ‘fake’, ya que se trata de contenidos falsos. Se denominan así porque se valen de la tecnología deep learning para manipular de manera realista tanto vídeos como clips de audio. “Los deepfakes son la continuación avanzada de los montajes de imágenes, fotos, vídeos y audios que se han utilizado desde tiempos ancestrales para engañar o hacer creer algo a la gente con un objetivo determinado”, declara Octavio Rojas, profesor de ESIC en Publicidad y Relaciones Públicas. Estos vídeos falsos pueden tener diferentes propósitos. “Los objetivos de los deepfakes pueden ser muy variados: manipulación política, dañar la imagen de una marca o de una persona, intenciones humorísticas, artísticos, etc.”, comenta Isaac Moriel, politólogo experto en gestión de la información. Hay vídeos que sólo buscan entretenimiento. “Hay de todo un poco, tanto usuarios que lo hacen por el simple hecho de que les resulta divertido hasta empresas que lo monetizan a través de la viralidad”, detalla Moriel. Por ejemplo, un montaje con los principales líderes de los partidos políticos españoles como personajes de la serie ‘Equipo A’ ha tenido gran difusión en los últimos días. David Varona, profesor del departamento de Comunicación y Educación de la Universidad Loyola, también recuerda que el programa ‘El intermedio’, de laSexta, utiliza esta técnica para simular entrevistas o conversaciones falsas con personajes políticos como Donald Trump o Esperanza Aguirre. “No pasa de ser una parodia en un estadio más avanzado de lo que se ha hecho en otros momentos”, anota. También podría tener aplicaciones en la industria cinematográfica o en televisión, para sustituir a actores o presentadores. “En la película ‘Rogue One’ de la saga Star Wars, el rostro de la princesa Leia está desarrollado a partir de la cara de la actriz Carrie Fisher cuando era joven y superpuesto a la actriz actual. En el episodio VII, ‘El último Jedí’, también se usa esta tecnología para recrear el personaje de la princesa Leia”, detalla Moriel. Varona indica que, gracias a esta tecnología, la industria cinematográfica “puede utilizar a actores ya muertos; inventar actores que no existan, con el consiguiente ahorro en caché; o jugar con estos efectos dentro del propio guión”. Algunos de los deepfakes que más repercusión tienen son los que buscan desinformar respecto a políticos, marcas o productos, aunque su porcentaje es mínimo. “Recientemente, se han usado abundantemente en política, para hacer que políticos digan cosas que no han dicho o aparezcan bebidos o incluso enfermos”, comenta David Alandete, conferenciante de Thinking Heads, corresponsal en Estados Unidos del diario ABC y autor del libro ‘Fake news: La nueva arma de destrucción masiva’. Por ejemplo, tuvo gran difusión un vídeo en el que se veía a Barack Obama insultando a Donald Trump, empleando la voz de un actor. Dicho vídeo trataba de mostrar el potencial manipular de los deepfakes. Asimismo, Moriel se refiere a un vídeo desarrollado por una agencia de publicidad en el que aparecía Mark Zuckerberg haciendo afirmaciones que realmente no había pronunciado y donde se insinuaba que tenía el control de datos robados a millones de personas. “Este caso, da la impresión de que se buscaba obtener notoriedad para la agencia, con la excusa de visibilizar el potencial problema de los deepfakes”, explica. Sin embargo, Alandete cree que “ese no es su uso más pernicioso, ya que los políticos suelen tener grandes equipos de comunicación que pueden desmentirlo”. Además, Moriel indica que “los bulos o noticias falsas menos elaboradas son muy efectivos y no requieren tanta complejidad ni tantos recursos”. Alandete opina que “los vídeos falsos son más peligrosos cuando se usan para extorsionar a ciudadanos de a pie, manipulando imágenes suyas y pidiéndoles dinero a cambio de no distribuirlos a sus amigos y familiares”. En cualquier caso, la triste realidad es que la mayoría de los deepfakes son simple pornografía. “Son vídeos a los que cambian las caras por los rostros de personas famosas o de exparejas. En el caso de las famosas, suele tratarse de trabajos bien hechos, que se distribuyen a través de páginas web que cobran por descargarlos”, detalla Moriel. Por ejemplo, Gal Gadot, Cara Delevigne y Katy Perry, entre otras, han sido víctimas de deepfakes de contenido pornográfico. Según indica Varona, se estima que el 95% de los deepfakes son pornográficos. “El objetivo está claro: monetizar”, recalca. Un negocio suculento Uno de los motivos que impulsa los deepfakes es que ofrecen un negocio muy interesante. Paula Herrero, periodista y profesora del departamento de Comunicación y Educación de la Universidad Loyola, cita los resultados de un estudio realizado por la empresa holandesa Deeptrace sobre el impacto de las deepfakes. “Revela que en los dos últimos años se ha incrementado exponencialmente el número de afectados por estos contenidos en un 100%. En su mayoría implican a mujeres y son de contenido pornográfico. El informe afirma que las principales páginas web que alojan estos contenidos -porno fake- superan los 134 millones de visualizaciones”, especifica. En el caso de los contenidos pornográficos, el lucro es evidente. Pero también hay otras formas de explotar económicamente esta tecnología. “En general, el negocio del engaño es claramente lucrativo. Pensemos en las empresas de comunicación que han nacido al albur de la mentira y que viven de orquestar campañas de desinformación y diseñar estrategias de propaganda que pretenden confundir y desestabilizar a los ciudadanos”, comenta Herrero. Tampoco podemos olvidarnos del negocio en torno a los datos y la información que ceden los usuarios de apps y webs. “En China, la app para móviles Zao ganó popularidad viral debido a sus sorprendentes resultados de deepfakes a partir de una única imagen estática que subían los usuarios. Esta aplicación generó controversia por sus draconianos términos de uso y el miedo a que pudiera obtener millones de rostros gratuitamente para objetivos no declarados de control social, tal como ocurrió con FaceApp. También hay aplicaciones a bajo costo para hacer tu propio vídeo deepfake y aplicaciones gratuitas de inteligencia artificial que permiten crear fotos de perfil de personas que no existen , que se utilizan para crear perfiles falsos con objetivos diversos”, advierte Rojas. “Parece que nos encontramos ante un modelo de negocio que imita al fast food. Es decir, consumimos formatos, aplicaciones y tecnologías pasajeras, la mayor parte de las veces efímeras, de manera frenética y por un precio tan asequible que el aval son nuestros datos o la cesión de los derechos de nuestras imágenes más íntimas”, lamenta Herrero. ¿Cómo evitar los engaños? Varona afirma que “si el vídeo falso reproduce el mismo texto -diálogo- que el original, es muy difícil distinguirlo, porque la transformación de los rostros es casi perfecta”. Sin embargo, señala que “en los vídeos en que se hace a una persona decir algo que no ha dicho, es más fácil, porque la inteligencia artificial todavía no es tan perfecta como para que no se aprecien anomalías en el movimiento de los labios, que es el punto más crítico”. No obstante, asegura que “para un ojo poco entrenado y para una persona que recibe un vídeo de este tipo con la guardia baja, es fácil creer que el contenido es real”. Además, Rojas explica que “la tecnología pública actual aún es un poco tosca y no soportaría un zoom, porque no tendría los pliegues o las arrugas del rostro real, de tal forma que en los deepfakes actuales se difumina todo el rostro y se pone el sujeto a una cierta distancia para reducir las posibilidades de ser detectado”. Aunque también reconoce que ya hay programas privados que han avanzado o resuelto esos problemas “y que se están utilizando en la actualidad sin que lo sepa el gran público”, por lo que “será cuestión de poco tiempo que se pueda utilizar de manera masiva con todo tipo de objetivos, tanto buenos como preocupantemente malos”. Moriel también apunta que “existen algunos indicios que nos deben hacer dudar cuando vemos un video”, como la frecuencia de parpadeo de los ojos, los movimientos de la boca -si son naturales y están sincronizados con el sonido-, la tonalidad o la iluminación en el pelo, “ya que es complicado lograr que tenga una textura natural”. Pero reconoce que “es complicado, y cada vez lo va a ser más”. De este modo, cree que “la mejor forma de combatirlos es con el sentido común y la educación”. “Hay que suprimir ese instinto de compartir las cosas sin contrastar antes. Disponemos de más fuentes de información que antes en toda la historia. Nunca ha sido tan barato contrastarla. Cuando se recibe una información que resulta demasiado insólita o inverosímil, debería pensarse si realmente la fuente que la ha remitido es fiable. Y en caso de dudas, recurrir a fuentes fiables para comprobar la veracidad de dicha información”, añade. Igualmente, Varona aconseja dudar de los contenidos que nos parezcan sospechosos. “Si se ve un vídeo en el que alguien dice algo extraño, conviene plantearse que puede estar trucado”, comenta. El efecto perverso de estos deepfakes es que pueden hacer que acabemos dudando incluso de los contenidos reales. De este modo, una información verídica puede no ser creída. Por ejemplo, esa es la estrategia que sigue Donald Trump, tildando de fake news todas las informaciones que lo incriminan. Tecnología para combatirlos A la par que mejora la tecnología para crear deepfakes, también empiezan a aparecer herramientas para detectarlos. “Tenemos el análisis inverso de vídeos, que utiliza una tecnología desarrollada en su día por Google para localizar los patrones matemáticos que definen una imagen. Aplicado a vídeos, permite detectar si las imágenes han sido utilizadas antes y detectar así un uso fraudulento”, precisa Varona. Se puede probar en páginas como la habilitada por Amnistía Internacional . También se refiere a herramientas como InVID -extensión de navegación especializada en analizar los vídeos-, la aplicación Frame to Frame -que analiza cada imagen de los vídeos de YouTube y es capaz de localizar manipulaciones- o Montage . Además, Google anunció en septiembre su colaboración en el benchmark FaceForensics , aportando miles de deepfakes realizados por la compañía, con el fin de apoyar la investigación para el desarrollo de herramientas de detección. Y Google News ha incluido una serie de herramientas para enseñar a los internautas a verificar contenidos. Rojas también señala que “en Estados Unidos hay soluciones como Truepic , que están ayudando a diferentes sectores e instituciones a distinguir imágenes verdaderas de montajes”. Y recalca que tanto la Interpol como Facebook, Google o Amazon cuentan con herramientas de reconocimiento facial y de imágenes, por lo que cree que éstas se podrían extender a los deepfakes. “Se podría ajustar la tecnología para que todas las imágenes y los vídeos que se suban a una red social o se indexen en una plataforma web pasen filtros de veracidad, tanto de audio como de vídeo y fotos estáticas, pero sería un gran desembolso económico y una alteración de los procesos que las firmas tecnológicas no parece que querrían asumir”, declara. Sin embargo, neutralizar los deepfakes no es tan fácil. “Creo que los medios técnicos tienen importantes limitaciones para esta batalla. Hay que tener en cuenta que es muy complicado para un sistema de inteligencia artificial distinguir la sátira o la ficción de una noticia falsa. Además, la tecnología va a hacer más accesible y más realista cada vez este tipo de contenidos”, anota Moriel. De este modo, la mejor manera de frenarlos es mediante la intervención humana.  Herrero afirma que las redes sociales “están tomando medidas” para detectar los deepfakes. Por ejemplo, señala que “YouTube cuenta con más de 10.000 expertos para vigilar los vídeos de su plataforma”. Igualmente, indica que la red social Tik Tok “acaba de anunciar el refuerzo de su plantilla con moderadores ante las acusaciones de haber permitido alojar vídeos del Estado Islámico con propaganda terrorista entre emoticonos de corazones y canciones que triunfan entre estos usuarios”. Asimismo, puntualiza que Facebook, propietario de Instagram, “comenzó el pasado verano a permitir denunciar contenidos para que el Consorcio Internacional de Fact Checkers (IFCN) los verificara”. Además, en la sección ‘Ayuda para editores y medios’ de Facebook podemos ver la lista de verificación que utilizan los expertos para decidir si un contenido es falso o no lo es. Por otro lado, Moriel incide en la responsabilidad de quienes difunden este tipo de contenidos falsos. “Los medios de comunicación se supone que cuentan con periodistas, que deben verificar las informaciones que reciben contrastándolas con fuentes fiables. Me parece increíble que, a estas alturas, todavía existan medios que transmiten noticias falsas. No sé si pensar que sólo se preocupan en obtener visitas, si simplemente es falta de profesionalidad por indolencia o si hay voluntad de manipular. Y no sé cuál de los cuál de los tres casos me parecería más grave”, comenta. Lea también :

memedeportes.com

Así es, la FA ha sancionado a Bernardo Silva un partido por un cachondeo con Mendy

2019-11-14

#1 por phenomenal1 14 nov 2019, 17:07 Desde luego es bastante absurdo sancionar por una broma entre compañeros que seguro que tienen buen rollo, pero claro, hoy en día por absolamente cualquier cosa siempre hay un montón de gente ofendidita

martincid.com

Al Agua Gambas (2019): Cachondeo a lo Gay

2019-11-14

Al Agua Gambas (2019)MAXIME GOVARE Y CÉDRIC LE GALLO ESCRIBEN Y DIRIGEN ESTA COMEDIA SOBRE UN EQUIPO DE WATERPOLO EN LOS JUEGOS GAYS Al Agua Gambas es una muy simpática película sobre los estereotipos y una peli que mezcla género «reinonas» (ya sabéis, Priscila, Reina del Desierto), deportes (superación personal y esas ‘cosillas’) y más temas personales. Eso sí, muchos chistes y muchos de ellos políticamente incorrectos. ¡Gracias! LA CRÍTICA Vamos, que se han metido con los estereotipos y a los críticos ‘progres’ les ha dado un poquitín de… que hay que ser políticamente correctos. Y… ¿sabéis qué? ¡Aquí no lo somos! ARGUMENTO Unos deportistas inútiles… sí,, gays… se van a los Juegos Gays… a jugar al waterpolo entrenados por un machirulo condenado por hacer comentarios políticamente incorrectos sobre los gays. ¿Suficientemente estúpido? ¡Para mi reducido intelecto: sí! LA PELI Pues un chiste, otro chiste y luego otro. ¿Estereotipos? ¡Pues sí, claro! Esto es para reírse y reírnos un poco de esta chorrada de seguir defendiendo ciertas posturas cuando ya están aceptadas. Me ha parecido una cinta muy alegre que le quita ‘mierda’ a esto de ser diferente. ¿A quién carajo le importa a estas alturas? Os va a gustar si os fustan los chistes en plan policías que legan a la Ostra Azul. Si os ponéis morales y sociales… a otra cosa, mariposa. La cinta parte de la premisa del estereotipo y luego se va complicando, tiene un buen guion y personajes y está bien interpretada (son franceses, tienen vino, champagne y buenos guionistas). Detrás de la pretendida frivolidad esconde más de lo que aparenta. Y una reflexión narrativa: la comedia se basa en los estereotipos, en definir rápido al personaje y en enclavarlo en un sector social. Ha sido así casi siempre (y me remonto a los griegos). NUESTRA OPINIÓN A pesar de que va perdiéndose un poco, merece la pena verla para pasar un buen ratillo y reírse un poco de esta sociedad bien-pensante. Y vamos a destacar algo muy bueno: nos viene a entretener no educar. Gracias de nuevo. TRAILER GALERÍA DE IMÁGENES Al Agua Gambas (2019) 1 de 23 Al Agua Gambas (2019) FICHA TÉCNICA Título original: Les crevettes pailletées Año: 2019 Duración: 100 min. País: Francia Dirección: Maxime Govare, Cédric Le Gallo Guion: Maxime Govare, Cédric Le Gallo Música: Thomas Couzinier, Frédéric Kooshmanian Fotografía: Jérôme Alméras Productora: Improductibles / Kaly Productions Género: Comedia Reparto: Nicolas Gob, Alban Lenoir, Geoffrey Couët, Michael Abiteboul, David Baïot, Romain Lancry, Thomas Croisière, Jonathan Louis, Romain Brau, Maïa Quesemand, Roland Menou, Pierre Samuel, Felix Martinez La entrada Al Agua Gambas (2019): Cachondeo a lo Gay se publicó primero en Martin Cid.

eurosport.es

El cachondeo de Broncano y Piqué por Ansu Fati, el carné de Jordi Alba y el móvil de Florentino

2019-11-14

back Eurosport El cachondeo de Broncano y Piqué por Ansu Fati, el carné de Jordi Alba y el móvil de Florentino Por Eurosport 0 Buzz El futbolista del FC Barcelona Gerard Piqué visitó una vez más La Resistencia en un programa especial grabado en la Caja Mágica, donde se disputará la Copa Davis, torneo que ha pasado a organizar la empresa del culé. Entre lo más destacado de la entrevista de David Broncano quedaron curiosidades sobre Ansu Fati, Jordi Alba o Florentino. La Resistencia de Broncano volvió a dejar momentos divertidos en una nueva visita de Gerard Piqué. El presentador estaba muy interesado en conocer más sobre la vida de Ansu Fati y el central no tenía tampoco muchas cosas que contarle... No sé qué desayuna... Debe desayunar leche con cereales. Nunca me había imaginado ni pensado qué desayuna Ansu Fati , dijo Piqué extrañado. Broncano le preguntó también por cómo llegaba a los partidos, al ser menor de edad y no poder conducir, y Piqué relató en ese momento como a Jordi Alba le llevan en coche su padre o su hermano porque no tiene carné. Otro momento divertido de la noche lo dio Florentino Pérez. Pues Piqué aseguró que tenía su teléfono, o al menos había hablado con él por temas personales hace años, y Broncano insistió e incluso Gerard dijo que haría campaña para que el mandatario blanco fuese al programa. 0Lee y comenta

cope.es

El 'Tsunami Murciano' para «frenar a Vox» y «apoyar» al nacionalismo que está siendo el cachondeo d

2019-11-14

Un usuario de Twitter ha lanzado una surrealista iniciativa para movilizar a Murcia para “seguir el ejemplo de vascos y catalanes”.

espanol.eurosport.com

El cachondeo de Broncano y Piqué por Ansu Fati, el carné de Jordi Alba y el móvil de Florentino

2019-11-14

back Eurosport El cachondeo de Broncano y Piqué por Ansu Fati, el carné de Jordi Alba y el móvil de Florentino Por Eurosport Hace 28 minutosActualizado Hace 18 minutos 0 0 Buzz El futbolista del FC Barcelona Gerard Piqué visitó una vez más La Resistencia en un programa especial grabado en la Caja Mágica, donde se disputará la Copa Davis, torneo que ha pasado a organizar la empresa del culé. Entre lo más destacado de la entrevista de David Broncano quedaron curiosidades sobre Ansu Fati, Jordi Alba o Florentino. La Resistencia de Broncano volvió a dejar momentos divertidos en una nueva visita de Gerard Piqué. El presentador estaba muy interesado en conocer más sobre la vida de Ansu Fati y el central no tenía tampoco muchas cosas que contarle... No sé qué desayuna... Debe desayunar leche con cereales. Nunca me había imaginado ni pensado qué desayuna Ansu Fati , dijo Piqué extrañado. Broncano le preguntó también por cómo llegaba a los partidos, al ser menor de edad y no poder conducir, y Piqué relató en ese momento como a Jordi Alba le llevan en coche su padre o su hermano porque no tiene carné. Otro momento divertido de la noche lo dio Florentino Pérez. Pues Piqué aseguró que tenía su teléfono, o al menos había hablado con él por temas personales hace años, y Broncano insistió e incluso Gerard dijo que haría campaña para que el mandatario blanco fuese al programa. 0Lee y comenta

deia.com

Espejo-Saavedra, un friki anda suelto por la AP-68

2019-11-14

Espejo-Saavedra recrea en su novela un universo imaginario. ( Alex Larretxi) Galería Noticia ES un escritor en una encrucijada. A caballo entre dos ciudades, Bilbao y Gasteiz, este vecino de la capital vizcaina acude asiduamente a Gasteiz. Cinéfilo confeso, a sus 40 años se declara un enamorado de los viajes y del deporte ya que corre media y larga distancia. Pero actualmente centra todo su tiempo libre en escribir y acaba de presentar su primera novela El capitán Aurwel y el tesoro definitivo, una historia que mezcla magia y combates navales, “un poco al estilo de Piratas del Carible”, describe. Porque este bilbaino, que hace de la AP-68 y la escritura sus vías de escape, asegura que “esta es una novela que trata de ser muy adictiva porque es muy entretenida y transmite emoción”. Con enigmáticos magos, heroicos caballeros, pergaminos malditos.. todo suena extravagante y friki aunque no le guste encuadrar su obra en ningún género. “Si El señor de los Anillos es friki este libro lo es porque es pura fantasía. Pero no hay un género mejor que otros. Hamlet de Shakespeare también es una novela friki porque aparece un fantasma. Y si nos ponemos a hablar de géneros, Romeo y Julieta es una pelea de dos bandas callejeras”, explica. Con algunas pelis fijas en su retina, “he ido al cineclub toda mi vida y tengo una educacion sentimental muy cinematográfica”, este bilbaino hace suya la frase de que una historia debe empezar como un puñetazo en el estómago, igual que una película tiene que empezar como un terremoto. Por ello ha intentado que su ópera prima discurra con un ritmo trepidante y cómico. “El propio Howard Hawks afirmaba que el género de una película daba practicamente igual porque si hay 10 mandamientos en la historia del cine, nueve dicen que no debes aburrir. Y esto lo manifestaba un gran maestro a la altura de Jon Houston u Orson Welles. Yo he cogido esa premisa y he intentado llevarla a la práctica. Y he escrito una novela fantástica y de aventuras sobre la búsqueda de un tesoro y un contrabandista que se ha quedado sin barco, y se ve arrastrado en intrigas”, resume. No en vano, este escritor mezcla en esta historia épica y magia usando como pegamento la comedia con diálogos cortos y divertidos y escenas de enredo. Surcando los mares se encuentra el capitán Aurwel, “un antihéroe, un perdedor, un contrabandista que es de los pocos que se atreve a cruzar los Mares de Fango”, un hombre que “sin querer, se encuentra metido en la búsqueda de un tesoro con el que los lectores se van a reir y van a disfrutar”. Porque la obra de Espejo-Saavedra rinde homenaje a las novelas clásicas de aventuras, a Julio Verne, a Roberts Louis Stevenson, o a sir Conan Doyle... A obras míticas como La vuelta al mundo en 80 días, Veinte mil leguas de viaje submarino o La isla del Tesoro, “novelas que a la gente de mi generación nos han hecho soñar”, subraya. Y aunque este bilbaino procede del relato corto y esta es su primera obra, si los lectores le dan su confianza, aspira a que esta novela sea la primera de una gran saga al estilo de las grandes epopeyas de aventuras del cine y la literatura. Sin embargo, Espejo-Saavedra no lee novela fantástica y se inclina por lecturas clásicas. “Tolkien me influyó de crío pero la mayor inspiración de la novela puede ser el Conde de Montecristo”. Y a nivel de autores locales destaca a Juan Benet, Juan Marsé o Vázquez Figueroa.

unotv.com

Deepfakes, nueva extorsión en redes sociales

2019-11-14

Deepfakes, nueva extorsión en redes sociales Nov 13, 201923:11Juan Rivas tuitear compartir En el mundo de la tecnología les llaman “deepfakes”. Es un sistema de edición de videos, que ahora los ciber delincuentes utilizan para extorsionar. Las víctimas son usuarios de redes sociales. El modus operandi es el siguiente: les roban fotografías de sus perfiles de redes sociales, después con la ayuda de aplicaciones y programas de inteligencia virtual, editan y arman videos pornográficos; les enciman las fotos. “Deepfakes” en español significa ultra realista. El video es de alta calidad, de tal manera que al ver el material, difícilmente se puede saber que es falso. Y aunque los usuarios, saben que no son ellos los que ahí aparecen, entran en pánico. Los delincuentes les mandan el video en privado, en seguida les piden dinero a cambio de no difundir ese material. Y sí, muchas veces los usuarios caen en la trampa. A Marco lo contactó una supuesta mujer por Messenger. En entrevista con Unotv.com narra que inició una conversación y en seguida le hicieron llegar un material: En automático me manda un video, un supuesto video mío, en el que aparezco, entre comillas, enseñando yo mis partes. Entonces, yo me quedé así como, ¡ah caramba!, porque sí era mi cara. Y tenía mi complexión, pero evidentemente sabía que ese no era yo , señala. Segundos después le pidieron más de 30 mil pesos a cambio de no mandarlo a sus contactos dentro de la red social. Se espantó y ofreció 2 mil, pero tras comunicarse con un familiar, determinaron llamar a la policía y así evitaron la extorsión. En los últimos mensajes, su interlocutor decía, “soy una mujer de palabra, no pretendo lastimarte, haz lo que te pido y te dejaré en paz”. En otro agregó “si me das lo que pido borraré para siempre tu video”. De acuerdo con Edmundo Daniel Silva, agente de la Policía de Ciberdelincuencia Preventiva de la Secretaría de Seguridad Ciudadana  de la capital del país, Al momento de que el usuario recibe este tipo de imagen, la primera impresión es que se asustan. Es una extorsión que hacen estos delincuentes, para todas las personas al azar , dice el experto. La ciberpolicía recomienda a los usuarios, bloquear cualquier conversación de intento de extorsión. Hasta las oficinas de este grupo policial, cada mes llega un promedio de 2 mil reportes, el 15 por ciento de estos, son relacionados con extorsiones en sus diferentes modalidades. Los videos “deepfakes” o ultra falsos, tuvieron su origen en la industria cinematográfica, pero ahora están al alcance de usuarios de internet, explica a Unotv.com  el experto y consultor en temas digitales Luis GyG. Afirma que, “esto podría parecer de ciencia ficción, sin embargo actualmente ya hay aplicaciones que pueden encontrarse en distintas tiendas sobre todo en Asia”. Entienden cuál es tu temor, atacan tu temor y de esa manera lo aprovechan. Es decir, pueden darte un video que quizá se generó al momento y decir que eres tú, donde quizá digas, pues sí, medio me parezco, pero te generan la duda”, establece Luis GyG sobre los delincuentes digitales. Por lo pronto los videos “deepkafes” siguen llegando a algunos usuarios, de ahí el llamado a no caer en la trampa. Te recomendamos

segnorasque.com

Cachondeo por la respuesta de Alex Casademunt tras creerse un troleo de ‘El Mundo Today’

2019-11-14

por Señorasque.com El integrante de Fórmula Abierta sale al paso de un supuesto titular falso de unas declaraciones del cantante sobre Vox. A estas alturas, queda poca gente que no conozca a El Mundo Today. Una web satírica que lleva muchos años sacando punta a la actualidad de nuestro país, a través de unos titulares de esos que nos hacen dudar si son en serio o completamente en broma. Pero, por lo que parece, hay gente que todavía no los tiene en el radar. “El rubio de Fórmula Abierta tuitea Fuck Vox pero ningún medio se hace eco”, fue el titular de una de las “noticias” que El Mundo Today lanzó el pasado martes, parodiando lo ocurrido con Rosalía y la formación de Abascal.   Una publicación compartida de Alex Casademunt (@alex81casademunt) el 19 Mar, 2019 a las 12:10 PDT Pero el titular hizo saltar al propio protagonista, Alex Casademunt, que ignoraba que se trataba de una broma. A través de las redes sociales, el extriunfito se pronunció al respecto. “No sé quién ha escrito eso, pero por supuesto no he sido yo”, dijo. Además, Casademunt alegó que “jamás” se ha pronunciado sobre política y que, si lo hiciera, no sería “desmereciendo ni insultando a ningún partido”. Un comentario que algunos incluso han interpretado como de simpatía hacia el partido de ultraderecha. Para terminar, el cantante acusa a El Mundo Today de fake y de no contrastar las noticias. “Deberíamos ser más leales a la información y al menos contrastar si es o no veraz y cierta”, acusó. De verdad que este día no se acabe nunca pic.twitter.com/V0dW9IQ9Eh — Jotaderos (@jotaderos) November 12, 2019 Sea como sea, la respuesta de Alex retumbó en las redes sociales, donde muchos usuarios se deleitaron en el hecho de que el integrante de Fórmula Abierta se creyera esa “noticia”. Seguro que a partir de ahora, El Mundo Today empieza a aparecer en su radar como lo que es: contenido puramente ficticio y humorístico. Madre mía madre mía madre mía

verne.elpais.com

De la parodia viral del Equipo E a los bulos: las dos caras de los vídeos 'deepfake' que circulan

2019-11-14

13 NOV 2019 - 20:20 CET En plena resaca de las elecciones del 10-N, surgió en redes sociales un vídeo paródico con los cinco candidatos como protagonistas de El Equipo A . Pablo Casado, Pedro Sánchez, Pablo Iglesias, Albert Rivera y Santiago Abascal aparecen en la grabación en la piel de los protagonistas de la serie y forman el Equipo E. El perfil FacetoFake ha creado y compartido esta grabación, que supera las 900.000 reproducciones en YouTube en sus primeras 48 horas y se ha compartido por WhatsApp. Para lograr que los políticos españoles aparezcan durante dos minutos y medio en el cuerpo de los actores estadounidenses, FacetoFake ha recurrido al deepfake. Pero Sánchez (arriba a la derecha), en el cuerpo del personaje de Fénix y Santiago Abascal (abajo a la derecha) en el de M.A. El nombre de esta tecnología mezcla los términos deep learning (aprendizaje profundo) y fake (falso) y permite por medio de la Inteligencia Artificial colocar el rostro de una persona en el cuerpo de otra en las imágenes en movimiento de un vídeo. Para que esto ocurra, se crea una serie de algoritmos que memorizan cuáles son las características de una fuente de datos para después crear desde cero nuevos ejemplos de esos datos. FacetoFake, con el que Verne ha contactado y que ha rechazado dar ningún tipo de información sobre quién se encuentra detrás de la cuenta, está especializada en este tipo de contenidos. Antes del Equipo E, ya publicó una escena de los hermanos Marx con Pedro Sánchez y Pablo Iglesias, además de colocar el rostro de un treintañero Antonio Banderas en las imágenes de una entrevista reciente que el malagueño ha concedido a la edición estadounidense de Vanity Fair. En opinión de Jorge Muñoz, cofundador del grupo de expertos en deep learning Serendeepia , solo alguien con conocimientos de informática, además de tiempo y ganas, puede crear este tipo de vídeos , explica a Verne. La parodia del Equipo E resulta divertida para el espectador porque el contexto le permite detectar que la cabecera de la serie estadounidense rodada en la década de los 80 no tiene nada que ver con los candidatos a la presidencia en las elecciones españolas del 10-N. Pero existen muchos otros casos de deepfakes que pueden dar lugar a noticias falsas más difíciles de reconocer. El canal de YouTube Ctrl Shift Face , también especializado en deepfakes de entretenimiento, publicó un vídeo en agosto de 2019 que generó un debate sobre el uso de esta tecnología. La grabación recupera una antigua entrevista promocional del cómico Bill Hader (Barry, Saturday Night Live) y hace que su rostro mute de forma intermitente con el de Tom Cruise. A diferencia del vídeo del Equipo E, el protagonista de Misión Imposible bien podría estar en la situación de Hader, por lo que muchos usuarios podrían tomar el vídeo como cierto y atribuirle sus declaraciones de forma errónea. Germen de bulos políticos El artista británico Bill Posters lleva meses compartiendo en su cuenta de Instagram vídeos deepfake con políticos y empresarios para concienciar de los riesgos de esta herramienta. El más conocido de ellos fue el que publicó en junio de 2019 con Mark Zuckerberg . El fundador y CEO de Facebook mira a cámara en este vídeo falso y dice: “Imagina esto por un segundo: un hombre con control total de los datos robados de miles de millones de personas, de todos sus secretos, sus vidas, sus futuros. Se lo debo todo a Spectre -el villano de la última de Bond-. Spectre me mostró que quien controla los datos, controla el futuro”. Hemos usado tecnología deepfake como una técnica narrativa para involucrar a la audiencia en algunas de las tensiones que existen, como si fuera un cuento con moraleja sobre tecnología y democracia , comentaba en su momento el artista a The Washington Post . Ver esta publicación en Instagram Una publicación compartida de Bill Posters (@bill_posters_uk) el 7 Jun, 2019 a las 7:15 PDT Desde semanas antes a la publicación de esta grabación manipulada, Facebook se enfrentaba a críticas por haberse negado a borrar este tipo de vídeos , pero la compañía dijo que rebajaría su visibilidad y lo marcaría como falso. Según declaró en un comunicado, la red social no tiene una política que estipule que la información que publicas en Facebook deba ser real”.  Entre los vídeos falsos más recientes de Posters, uno muestra al líder de la oposición del Gobierno británico Jeremy Corbyn apoyando a Boris Johnson para que continúe como primer ministro del país y, en otro, es Johnson el que hace lo mismo con Corbyn . En todos ellos, como en el que el dueño de Amazon Jeff Bezos se compromete a proteger la selva amazónica durante los próximos 25 años, sus personajes se presentan a viva voz como una versión deepfake. Sí que existe un riesgo real de un mal uso del deepfake, porque en breve crear un contenido así estará al alcance de cualquiera. Pero, al igual que se crearon antivirus tras la llegada de los virus informáticos, se crearán formas de detectar estos vídeos. Se abrirá un gran mercado que pronto alguien querrá ocupar , cuenta a Verne por teléfono el físico y experto en Inteligencia Artificial José Antonio Torres . Google ya ha creado 3.000 vídeos falsos para que los investigadores puedan usarlos y encontrar la fórmula para combatirlos. En busca de una regulación Ya en 2018 se empezó a regular el uso de esta técnica. La web Pornhub elimina desde entonces el uso del deepfake en sus contenidos, después de que aparecieran en su plataforma vídeos que colocaban de forma artificial en escenas pornográficas el rostro de conocidos actores (Gal Gadot o Scarlett Johansson) y también de personas anónimas. Jonah Peretti, fundador de BuzzFeed, y su cuñado el director de cine Jordan Peel (Déjame salir, Nosotros) analizaron poco después, en abril de 2018, las consecuencias de un uso poco ético del deepfake en 2018 creando un vídeo con Barack Obama afirmando que Trump es un completo idiota . Para completar los 70 segundos de un clip como el del expresidente de Estados Unidos, sus autores necesitaron decenas de horas de postproducción y edición, que en este caso fue realizada con Adobe After Effects y FakeApp, contaba Retina en su momento . Al margen de casos como el de Pornhub que vulneran el derecho a la imagen, la industria del entretenimiento empieza a plantearse dudas éticas ante las posibilidades que el deepfake y otras técnicas pueden ofrecerle. Con las nuevas tecnologías, los actores pueden ser siempre jóvenes en pantalla, como ha ocurrido este verano en Géminis . La película de acción cuenta con dos personajes principales, interpretados por Will Smith y por una versión veinteañera de Will Smith. Las estrellas de cine pueden incluso resucitar: Hollywood ya prepara para 2021 Finding Jack, una película de guerra con un James Dean hecho con CGI como actor secundario, 65 años después de protagonizar Gigante (1956). Los dos Will Smith que protagonizan Géminis * También puedes seguirnos en Instagram y Flipboard . ¡No te pierdas lo mejor de Verne! Compartir en Facebook

cuatro.com

El futbolista más 'friki' de la Champions: "Duermo con los balones en mi cama, son mi novia"

2019-11-13

El futbolista más friki de la Champions: Duermo con los balones en mi cama, son mi novia cuatro.com13/11/201919:38h. Erling Haaland, la joven promesa noruega que reina en Europa Erling Haaland está siendo una de las figuras de la Champions League de esta temporada. El jugador noruego tan solo tiene 19 años y suma 7 goles en 4 partidos. Cifras espectaculares teniendo en cuenta que su equipo, el Red Bull Salzburg está en tercera posición del grupo E, por detrás del Liverpool y el Nápoles.  Uno de los secretos del jugador noruego es bastante curioso, y tiene que ver precisamente con la Champions League, más concretamente con su himno:  Ese es mi tono de alarma. Me despierto todos los días. Es la última canción de la que me cansaría. Siempre tengo un comienzo perfecto para el día , confiesa Haaland para un medio local.  Haaland no solo marca en Champions League, también lo hace en liga. Sus cifras esta temporada son una auténtica locura: 18 partidos jugados en total y 26 goles. El delantero suma 5 hat-tricks esta temporada y reconoce que esos balones que se lleva de los partidos duermen con él:  Tengo cinco bolas de hat-trick en mi cama y duermo bien con ellas. Son mis novias . Te puede interesar

forocoches.com

Siento una ráfaga de odio cuando pasao al lado de una tienda

2019-11-13

Siento una r?faga de odio cuando pasao al lado de una tienda Usuario Siento una r?faga de odio cuando pasao al lado de una tienda   Todav?a no Siento una r?faga de odio cuando pasao al lado de una tienda Voy por la calle y al poco de pasar la tienda que suele tener la puerta abierta siento sumergirme en una corriente densa y agobiante de energ?a negativa cuyo foco parece llegar de all?. Cuando me alejo tal que una casa tapa la tienda, desaparece. Hay una persona dentro que me cuesta un poco localizar y que me observa, en silencio   Lupo TDI - Jeep V8 5.9 - Multivan T4 - BMW 730d   Los mejores locos est?n en madrid   Cita: Originalmente Escrito por nivaldiaR Voy por la calle y al poco de pasar la tienda que suele tener la puerta abierta siento sumergirme en una corriente densa y agobiante de energ?a negativa cuyo foco parece llegar de all?. Cuando me alejo tal que una casa tapa la tienda, desaparece. Hay una persona dentro que me cuesta un poco localizar y que me observa, en silencio De que es la tienda? Soy brujo. Conoces a los due?os o empleadoa?

elpais.com

De la parodia viral del Equipo E a los bulos: las dos caras de los vídeos 'deepfake' que circulan p

2019-11-13

13 NOV 2019 - 20:20 CET En plena resaca de las elecciones del 10-N, surgió en redes sociales un vídeo paródico con los cinco candidatos como protagonistas de El Equipo A . Pablo Casado, Pedro Sánchez, Pablo Iglesias, Albert Rivera y Santiago Abascal aparecen en la grabación en la piel de los protagonistas de la serie y forman el Equipo E. El perfil FacetoFake ha creado y compartido esta grabación, que supera las 900.000 reproducciones en YouTube en sus primeras 48 horas y se ha compartido por WhatsApp. Para lograr que los políticos españoles aparezcan durante dos minutos y medio en el cuerpo de los actores estadounidenses, FacetoFake ha recurrido al deepfake. Pero Sánchez (arriba a la derecha), en el cuerpo del personaje de Fénix y Santiago Abascal (abajo a la derecha) en el de M.A. El nombre de esta tecnología mezcla los términos deep learning (aprendizaje profundo) y fake (falso) y permite por medio de la Inteligencia Artificial colocar el rostro de una persona en el cuerpo de otra en las imágenes en movimiento de un vídeo. Para que esto ocurra, se crea una serie de algoritmos que memorizan cuáles son las características de una fuente de datos para después crear desde cero nuevos ejemplos de esos datos. FacetoFake, con el que Verne ha contactado y que ha rechazado dar ningún tipo de información sobre quién se encuentra detrás de la cuenta, está especializada en este tipo de contenidos. Antes del Equipo E, ya publicó una escena de los hermanos Marx con Pedro Sánchez y Pablo Iglesias, además de colocar el rostro de un treintañero Antonio Banderas en las imágenes de una entrevista reciente que el malagueño ha concedido a la edición estadounidense de Vanity Fair. En opinión de Jorge Muñoz, cofundador del grupo de expertos en deep learning Serendeepia , solo alguien con conocimientos de informática, además de tiempo y ganas, puede crear este tipo de vídeos , explica a Verne. La parodia del Equipo E resulta divertida para el espectador porque el contexto le permite detectar que la cabecera de la serie estadounidense rodada en la década de los 80 no tiene nada que ver con los candidatos a la presidencia en las elecciones españolas del 10-N. Pero existen muchos otros casos de deepfakes que pueden dar lugar a noticias falsas más difíciles de reconocer. El canal de YouTube Ctrl Shift Face , también especializado en deepfakes de entretenimiento, publicó un vídeo en agosto de 2019 que generó un debate sobre el uso de esta tecnología. La grabación recupera una antigua entrevista promocional del cómico Bill Hader (Barry, Saturday Night Live) y hace que su rostro mute de forma intermitente con el de Tom Cruise. A diferencia del vídeo del Equipo E, el protagonista de Misión Imposible bien podría estar en la situación de Hader, por lo que muchos usuarios podrían tomar el vídeo como cierto y atribuirle sus declaraciones de forma errónea. Germen de bulos políticos El artista británico Bill Posters lleva meses compartiendo en su cuenta de Instagram vídeos deepfake con políticos y empresarios para concienciar de los riesgos de esta herramienta. El más conocido de ellos fue el que publicó en junio de 2019 con Mark Zuckerberg . El fundador y CEO de Facebook mira a cámara en este vídeo falso y dice: “Imagina esto por un segundo: un hombre con control total de los datos robados de miles de millones de personas, de todos sus secretos, sus vidas, sus futuros. Se lo debo todo a Spectre -el villano de la última de Bond-. Spectre me mostró que quien controla los datos, controla el futuro”. Hemos usado tecnología deepfake como una técnica narrativa para involucrar a la audiencia en algunas de las tensiones que existen, como si fuera un cuento con moraleja sobre tecnología y democracia , comentaba en su momento el artista a The Washington Post . Ver esta publicación en Instagram Una publicación compartida de Bill Posters (@bill_posters_uk) el 7 Jun, 2019 a las 7:15 PDT Desde semanas antes a la publicación de esta grabación manipulada, Facebook se enfrentaba a críticas por haberse negado a borrar este tipo de vídeos , pero la compañía dijo que rebajaría su visibilidad y lo marcaría como falso. Según declaró en un comunicado, la red social no tiene una política que estipule que la información que publicas en Facebook deba ser real”.  Entre los vídeos falsos más recientes de Posters, uno muestra al líder de la oposición del Gobierno británico Jeremy Corbyn apoyando a Boris Johnson para que continúe como primer ministro del país y, en otro, es Johnson el que hace lo mismo con Corbyn . En todos ellos, como en el que el dueño de Amazon Jeff Bezos se compromete a proteger la selva amazónica durante los próximos 25 años, sus personajes se presentan a viva voz como una versión deepfake. Sí que existe un riesgo real de un mal uso del deepfake, porque en breve crear un contenido así estará al alcance de cualquiera. Pero, al igual que se crearon antivirus tras la llegada de los virus informáticos, se crearán formas de detectar estos vídeos. Se abrirá un gran mercado que pronto alguien querrá ocupar , cuenta a Verne por teléfono el físico y experto en Inteligencia Artificial José Antonio Torres . Google ya ha creado 3.000 vídeos falsos para que los investigadores puedan usarlos y encontrar la fórmula para combatirlos. En busca de una regulación Ya en 2018 se empezó a regular el uso de esta técnica. La web Pornhub elimina desde entonces el uso del deepfake en sus contenidos, después de que aparecieran en su plataforma vídeos que colocaban de forma artificial en escenas pornográficas el rostro de conocidos actores (Gal Gadot o Scarlett Johansson) y también de personas anónimas. Jonah Peretti, fundador de BuzzFeed, y su cuñado el director de cine Jordan Peel (Déjame salir, Nosotros) analizaron poco después, en abril de 2018, las consecuencias de un uso poco ético del deepfake en 2018 creando un vídeo con Barack Obama afirmando que Trump es un completo idiota . Para completar los 70 segundos de un clip como el del expresidente de Estados Unidos, sus autores necesitaron decenas de horas de postproducción y edición, que en este caso fue realizada con Adobe After Effects y FakeApp, contaba Retina en su momento . Al margen de casos como el de Pornhub que vulneran el derecho a la imagen, la industria del entretenimiento empieza a plantearse dudas éticas ante las posibilidades que el deepfake y otras técnicas pueden ofrecerle. Con las nuevas tecnologías, los actores pueden ser siempre jóvenes en pantalla, como ha ocurrido este verano en Géminis . La película de acción cuenta con dos personajes principales, interpretados por Will Smith y por una versión veinteañera de Will Smith. Las estrellas de cine pueden incluso resucitar: Hollywood ya prepara para 2021 Finding Jack, una película de guerra con un James Dean hecho con CGI como actor secundario, 65 años después de protagonizar Gigante (1956). Los dos Will Smith que protagonizan Géminis * También puedes seguirnos en Instagram y Flipboard . ¡No te pierdas lo mejor de Verne! Compartir en Facebook

3djuegos.com

Que es lo más chungo que habéis hecho en el instituto

2019-11-13

Hace 10 horas / Respuestas: 24 / Lecturas: 234 Que es lo m�s chungo que hab�is hecho en el instituto Solo quisiera saber lo m�s chungo que hab�is hecho Jhonppsanti210095Hace 10 horas1 Hacer pellas, lo hice una vez en el bachi y me senti super culpbale al dia siguiente YoSoyThanos604Hace 9 horas2 Bueno, pues no s�. Si es de putear a alguien, quiero pensar que nunca hice mal a nadie. Pero chungas... meter un petardo en el WC (no donde meas, si no en la cisterna, donde se acumula el agua), hacer pellas evidentemente, unas pocas de hecho y meterme en el ba�o de chicas con mi primera novieta ponernos morosos y salir con los huevos como dos putos melones. Helderx8377Hace 9 horas3 Pff mi instituto es que es de pueblo y entonces hemos hecho de todo. Tirar cohetes (si los de barillas que luego explotan los de las ferias) dentro del instituto. Romper una puerta y entrar al despacho del director y dejarla encima de su mesa (la puerta la rompi sin querer). Tirar un diccionario y que cayese de un segundo piso. Tirar una silla de un segundo piso (esta no fui yo). Agujerear una lata de pintura y dejar medio instituto con puntitos en el suelo. Y no recuerdo mas, conforme recuerde ire editando el mensaje. Champagne15162   Hace 9 horas4 - Provocar alguna que otra lesi�n, obviamente accidental. - Hacer un poco de bullying, pero del suave. - Ment�a m�s que hablaba - Cualquiera que me tocaba un poco los huevos iba pa direcci�n con parte grave. Y los muy hijos de puta no me hablaron en bachillerato porque Iris uni pirsini toxiqui . Y una mierda que se van a comer esos �Persona t�xica yo? Lo son ellos mismos. Se enga�an a ellos mismos ech�ndole la culpa de sus problemas a gente ajena. Y ese comportamiento me pone enfermo... SiVisPacem1058Hace 9 horas5 Mostrar cita - Provocar alguna que otra lesi�n, obviamente accidental. - Hacer un poco de bullying, pero del suave. - Ment�a m�s que hablaba - Cualquiera que me tocaba un poco los huevos iba pa direcci�n con parte grave. Y los muy hijos de puta no me hablaron en bachillerato porque Iris uni pirsini toxiqui . Y una mierda que se van a comer esos �Persona t�xica yo? Lo son ellos mismos. Se enga�an a ellos mismos ech�ndole la culpa de sus problemas a gente ajena. Y ese comportamiento me pone enfermo... Ahora lo entiendo todo. Histeria1858Hace 8 horas6 Yo no mucho pero un amigo m�o meti� una bolsa de pl�stico con harina en una taquilla y todo concluy� con la polic�a en el instituto. DanielaBrocoli3208Hace 8 horas7 Empalar al profesor de f�sica y qu�mica. EDITADO EL 13-11-2019 / 16:27 (EDITADO 1 VEZ) 1 VOTO Mostrar cita - Provocar alguna que otra lesi�n, obviamente accidental. - Hacer un poco de bullying, pero del suave. - Ment�a m�s que hablaba - Cualquiera que me tocaba un poco los huevos iba pa direcci�n con parte grave. Y los muy hijos de puta no me hablaron en bachillerato porque Iris uni pirsini toxiqui . Y una mierda que se van a comer esos �Persona t�xica yo? Lo son ellos mismos. Se enga�an a ellos mismos ech�ndole la culpa de sus problemas a gente ajena. Y ese comportamiento me pone enfermo... Bullying suave. Guau, y todav�a te molesta lo de persona t�xica Dices que se enga�an a s� mismos, pero t� est�s echando balones fueras cuando reconoces ser un mentiroso de manual 1 VOTO NIArtemicht8828Hace 8 horas9 Una vez me enfad� con el jefe de estudios y sal� de la clase echando hostias. Le pegu� una patada a la silla del profe en mi camino (�l estaba de pie). No me acuerdo qu� pas� despu�s. Luego me enfad� con una gente por un trabajo grupal y acab� estampando la silla contra la pared y march�ndome de clase (la profe a�n no hab�a llegado). Soy muy de montar el drama e irme. Me escond� detr�s de una columna en el patio hasta que se me pas� el cabreo. Los trabajos grupales sacan lo peor de uno. Duffboy3284Hace 8 horas10 Pues no se, yo es que faltaba bastante porque era una perdida de tiempo. Nevire241936Hace 8 horas11 Yo siempre fui la empollona de la clase a la que le gustaban las mates y no recuerdo realmente que alguna vez hiciera nada chungo digno de menci�n. Incluso cuando me he saltado clases siempre fue por falta de profesor, y eso ya en bachillerato. @DanielaBrocoli @NIArtemicht A partir de ahora ten�is que comentar siempre uno seguido del otro. 3 VOTOS Una vez no hice el workbook. 1 VOTO Mostrar cita - Provocar alguna que otra lesi�n, obviamente accidental. - Hacer un poco de bullying, pero del suave. - Ment�a m�s que hablaba - Cualquiera que me tocaba un poco los huevos iba pa direcci�n con parte grave. Y los muy hijos de puta no me hablaron en bachillerato porque Iris uni pirsini toxiqui . Y una mierda que se van a comer esos �Persona t�xica yo? Lo son ellos mismos. Se enga�an a ellos mismos ech�ndole la culpa de sus problemas a gente ajena. Y ese comportamiento me pone enfermo... Bullying suave. Guau, y todav�a te molesta lo de persona t�xica Dices que se enga�an a s� mismos, pero t� est�s echando balones fueras cuando reconoces ser un mentiroso de manual Y os tomais en serio mi comentario Champagne15162

blog.elhacker.net

DeepFakes, videos manipulados con intercambios de caras usando IA

2019-11-13

DeepFakes, videos manipulados con intercambios de caras usando IA miércoles, 13 de noviembre de 2019 | Publicado por el-brujo | Editar entrada Los vídeos manipulados no son nada nuevo. Pero con las nuevas tecnologías, el realismo logrado ha permitido obtener resultados asombrosos. Los llamados «deep fakes» se han convertido en uno de los grandes desafíos de las redes sociales. Personajes famosos como Barack Obama, Donald Trump o Jennifer Lawrence han sido objeto de experimentos multimedia que llegan incluso a confundir al espectador. En España empieza a detectarse el impacto de esa tecnología con ejemplos como el de un vídeo titulado «Equipo E» que parodia a los políticos españoles. Estas secuencias son cada vez más populares para crear «memes» que incluso, en manos malintencionadas, puede llegar a contribuir a la propaganda. Un deepfake es un vídeo modificado utilizando tecnología de intercambio de caras. Se basa en machine learning, una de las rama de la Inteligencia Artificial. Y el deepfake pornográfico es un fenómeno muy real, ya que se estima que el 96% de los vídeos falsos siguen siendo de carácter pornográfico. El YouTuber FacetoFake aprovechó para subir a su joven canal un vídeo llamado ‘El Equipo E, con E de España ’. El vídeo humorístico que ha aparecido en el canal YouTube, cuya autoría está atribuida a un grupo llamado « Face to Fake », toma de base la cabecera de la célebre serie de televisión «El Equipo A», pero sustituye los rostros de los protagonistas originales por los de los principales políticos españoles. El canal de YouTube, que lleva 4 meses colgando vídeos, se ha valido del software DeepFaceLab para Windows, disponible de forma gratuita en GitHub . Los Deepfakes y su uso de sistemas IA y ‘machine learning’ están sorprendiendo precisamente por el enorme nivel de veracidad que están consiguiendo alcanzar. Y los niveles de peligrosidad también.  En diciembre de 2017, a pocos días de la Navidad, la red entera tembló con el nombre de ‘Deepfakes’, una técnica de síntesis de la imagen humana basada en Inteligencia Artificial que mezclaba las palabras ‘deep learning’ (aprendizaje profundo) y ‘fake’ (falso). En sí, su IA es tan potente que permite cambiarle el rostro a una persona por el de otra, pero no en una foto estática, sino en un vídeo,y ver cómo el rostro nuevo se superpone y se adapta en tiempo real al rostro real de la persona en cuestión. El Equipo E Y es que a nadie le amarga un poquito de sana parodia y humor en unos días en que hace mucha falta, motivo por el que esta intro ‘alternativa’ de la popular serie de los 80 ‘El Equipo A’ ha pegado el pelotazo en visitas. Porque ver a Pablo Casado, Pedro Sánchez, Pablo Iglesias, Albert Rivera y Santiago Abascal reconvertidos en los 5 miembros de A-Team (en las primeras temporadas tuvieron 1 acompañante femenina) es delirante y pura guasa de esas que se destila mucho en España. Deep Learning + Fake = Deepfake La primera vez que escuchamos la palabra deepfake fue en 2017. Un hilo en Reddit creado por un usuario con ese nombre mostraba GIFs de películas porno en las que se había sustituido los rostros de las actrices originales por celebridades como Gal Gadot o Emilia Clarke. Un deepfake es una foto o vídeo de una persona cuyo rostro -y/o cuerpo- es sustituido por la de otra usando redes neuronales artificiales, un conjunto de unidades, llamadas neuronas artificiales, conectadas entre sí para transmitirse señales. Estos sistemas aprenden usando el aprendizaje automático y se forman a sí mismos, en lugar de ser programados de forma explícita, y sobresalen en áreas donde la detección de soluciones o características es difícil de expresar con la programación convencional. En un deepfake básicamente se cogen dos muestras de material multimedia, el vídeo o foto en el que quieres hacer la sustitución y la persona que quieres usar para sustituir a la original. Y se combinan usando técnicas de aprendizaje automático. De esta manera, la potencia de la IA y los algoritmos de la tecnología Deepfake se encargan de cotejar los rasgos y expresiones de los dos rostros que se quieren combinar, para hacer que la persona elegida Un deepfake normalmente parte de dos vídeos: la base que queremos modificar, y otro vídeo con la persona que queremos insertar; el programa analiza este segundo vídeo, aprendiendo cómo la persona habla, cierra los ojos y mueve los músculos de la cara. A continuación, analiza el vídeo a modificar y aplica la cara; la clave es que imita los movimientos de la persona original, incluyendo gestos, guiños y tics . De todas maneras los requisitos de videos de origen y destino deben ser de alta resolución (4k webm es mejor, no se recomienda nada menor de, se requiere que las caras noe estén muy lejos de la cámara y sin obstáculos. Que haya ángulos múltiples, expresiones faciales. Escenas brillantes y uniformemente iluminadas. Y las caras deben coincidir (barba, sombrero, cabello, color de piel, forma, anteojos) y se necesitan al menos 2 minutos de video de buena calidad, los videos de entrevistas funcionan bien. FaceSwap FaceSwap es una herramienta que utiliza el aprendizaje profundo para reconocer e intercambiar caras en imágenes y videos. Aplicación que utiliza el deep learning para «desnudar» a mujeres Una aplicación, llamada Deepnude , desapareció a las pocas horas empujada por el escándalo y ante el riesgo de sus desarrolladores de ser sepultados por multas. Sin embargo, su creación y lanzamiento fue suficiente para hacerse una idea de hasta qué punto los montajes mediante sistemas de IA han pasado en poco tiempo de estar restringidos a unos cuantos expertos y programas muy potentes a tener el potencial de caber en manos de cualquiera. Tik Tok cuenta con la mayor base de datos de expresiones del mundo. Se trata de una red social donde sobre todo se comparte la expresión Combartir Videos Falsos Fake  Facebook por el momento no elimina los deepfakes , aunque sí que marca que son vídeos manipulados   La detección de deepfakes es uno de los desafíos más importantes que tenemos por delante , dijo el presidente ejecutivo de Google, Sundar Pichai, en un mensaje en Twitter. Facebook se negó a retirar el vídeo de Pelosi aludiendo a que según las normas de su comunidad no se elimina contenido solo por ser ficticio, ya que esto limitaría en gran medida las parodias o contenidos humorísticos, aunque sí que tomó la decisión de que apareciera claramente un aviso de que ese vídeo era falso. Tampoco retiró el montaje de Zuckerberg, recogiendo así el guante. Google y por lo tanto Youtube, sí que decidieron eliminar el de Pelosi. Estos vídeos «fake» han sido utilizados ya para atribuirle palabras y frases a políticos que nunca las han pronunciado. Afirmaciones tajantes y manipuladas que en el momento de su detección se ha viralizado por redes sociales rápidamente, complicando además las labores de los algoritmos de verificación. Las redes sociales han alzado la voz para combatir estos vídeos, pero es una tarea complicada. En Estados Unidos, estados como Virginia o Texas han comenzado a ser pioneros en regular el uso de montajes y deepfakes , el primero enfocado más en su uso a nivel de vídeos falsos pornográficos y en Texas con respecto a su uso durante la campaña. El cómico Bill Hader reconvertido en los actores Seth Rogen y Tom Cruise usando el deepfake Facebook, incluso, ha reconocido haber mantenido vídeos «fakes» de dirigentes políticos en su plataforma al considerar que no son «censores», lo ha generado una gran preocupación al respecto. Otros servicios como Twitter han querido reducir su viralidad informando acerca de su contenido falso en una etiqueta. Lo controvertido, y preocupante a la vez, es que se teme que este tipo de vídeos se perfeccionen a tal calibre que vayan a emplearse para suplantar y modificar la identidad de personajes conocidos.  Reto de la Detección de Deepfakes (DFDC), una base de datos y una clasificación, junto con “financiación y premios para estimular a la industria a crear nuevas formas de detectar y evitar que los medios manipulados a través de la IA se utilicen para engañar a otros”. Amazon forma parte de la primera edición de Deepfakes Detection Challenge, una competición que comenzará el próximo mes de diciembre, cuando Facebook publicará un conjunto de archivos con decenas de miles de vídeos, tanto reales como falsos, con un peso total de cuatro petabytes.  Pero para plataformas y medios como Facebook o Twitter, los deepfakes son el siguiente enemigo a combatir. De hecho Twitter ya está haciendo llamamientos a sus usuarios para que le ayuden a combatir esta clase de material engañoso. IA (Inteligencia Artificial) clona tu voz después de escuchar durante 5 segundos El documento Transferir el aprendizaje de la verificación del orador a la síntesis de texto a voz de varios oradores y muestras de audio están disponibles aquí: arxiv.org/abs/1806.04558 google.github.io/tacotron/publications/speaker_adaptation/ Una implementación no oficial de este documento está disponible aquí: github.com/CorentinJ/Real-Time-Voice-Cloning Fuentes:

culturageek.com.ar

Death Stranding: un deepfake reemplaza a todos los personajes por Hideo Kojima

2019-11-13

Death Stranding está protagonizado por Norman Reedus, Mads Mikkelsen y Léa Seydoux entre otros, pero ¿qué pasaría si a todos los reemplazara Hideo Kojima? The post Death Stranding: un deepfake reemplaza a todos los personajes por Hideo Kojima appeared first on Cultura Geek.

vivafutbol.es

Risas y cachondeo en las redes tras una palabras de Paz Padilla en inglés en ‘Sálvame’

2019-11-13

Risas y cachondeo en las redes tras una palabras de Paz Padilla en inglés en ‘Sálvame’ Por - 13 noviembre, 2019 La presentadora gaditana desata el cachondeo entre los espectadores y los usuarios de las redes sociales Sin en algo ha destacado siempre la presentadora y colaboradora de televisión Paz Padilla, es en su gran sentido del humor. La gaditana casi siempre consigue arrancar la sonrisa de sus compañeros de profesión y la de los espectadores. Paz debutó en televisión a mitad de los años 90. Lo hizo en el legendario programa de humor de Antena 3, ‘Genio y figura’. Desde entonces la gaditana de 50 años siempre se ha caracterizado por protagonizar momentos imprevisibles, inesperados y divertidos. Eso es lo que volvió a suceder en el programa de ayer de ‘ Sálvame Diario ‘, donde la humorista volvía a desatar las risas de todos. Paz volvía a protagonizar otro de esos momentos impagables que quedan marcados en televisión. Aquellos que siguen de forma habitual el programa de Telecinco, que se emite en la franja horaria ubicada entre las 16:00 y 21:10 horas de lunes a viernes, saben que los colaboradores y presentadores suelen anunciar distintas clases de productos. Este tipo de promociones pueden referirse a teléfonos móviles o incluso productos de farmacias. El turno de anunciar este tipo de promociones le tocó ayer a Paz Padilla . El bla fretei pic.twitter.com/iHOnKIZ5jX — peripatètic (@T5Comento) 12 de noviembre de 2019 La gaditana pronuncia “bla fretei” en vez de ‘Black Friday’ La presentadora nacida en Cádiz tenía que anunciar una oferta relacionada directamente con el famoso ‘Viernes Negro’ (Black Friday). Este se celebra el último viernes del mes de noviembre, y da inicio a la temporada de compras navideñas con importantes rebajas. El caso es que cuando Paz Padilla iba a pronunciar las palabras Black Friday dijo en un extraño inglés “bla fretei”. Sus palabras desataron las risas y el cachondeo entre los espectadores y en las redes sociales, por lo que habían visto en ‘Sálvame‘. Una vez más la gaditana volvía a protagonizar uno de esos momentos a los que ya nos tiene acostumbrados. Etiquetas

exclusivadigital.com

Paz Padilla vuelve a demostrar su 'dominio' del inglés y el cachondeo en Twitter es monumental

2019-11-13

Paz Padilla vuelve a demostrar su dominio del ingl?s y el cachondeo en Twitter es monumental En una promoci?n del Black Friday dijo bla fretei Redacción   Televisión   Madrid  (13.11.2019)     Paz Padilla ha vuelto a dejar en Sálvame su impronta, uno de esos momentos en los que deja de manifiesto su nivel gramatical para regocijo y cachondeo de las redes sociales y el personal en general   Como muy bien saben los espectadores del programa de las tardes de Telecinco, los colaboradores y presentadores de Sálvame suelen hacer promociones de todo tipo de productos: desde telefonía móvil, a productos farmacéuticos pasando por clínicas dentales. Todo cabe en ese cajón de sastre, o corrala como lo llama Jorge Javier Vázquez, que es Sálvame.   Este martes 12 de noviembre, Paz Padilla ha dado que hablar en Twitter después de presentar una oferta para el próximo y cercano Black Friday (Viernes negro en castellano), la jornada de ventas en todo el mundo que se celebra el último viernes de noviembre y en la que las marcas hacen jugosas ofertas.

netambulo.com

¿Qué un ‘deepfake’ y cómo crear uno?

2019-11-13

3 Otros vídeos deepfake famosos ¿Qué es un deepfake? Un deepfake es un vídeo falso al que se le sustituye la cara de una o más personas obteniendo un resultado muy real. Un deepfake es mucho más peligroso que una fake news. La palabra deepfake es un acrónimo del inglés creado a partir de las palabras fake (falsificación) y deep learning (aprendizaje profundo). Los deepfake se utiliza tanto en cine (escenas de la princesa Leia en Rogue One: una historia de Star Wars) como para hacer vídeos fake con políticos, actores o actrices en todo tipo de situaciones, a veces incluso con escenas pornográficas. ¿Cómo se crea un deepfake? Para crear un deepfake necesitas un programa gratuito llamado Faceswap . Una vez instalado, necesitarás un vídeo base sobre el que trabajar y varios vídeos con la cara del personaje (o personajes) que van a ser sustituidos. Luego necesitarás echarle unas cuantas horas para hacer el montaje. En el siguiente vídeo te explican los pasos a seguir para hacer un deepfake. Otros vídeos deepfake famosos

msn.com

Los candidatos del 10N son el nuevo 'Equipo A' en un "deepfake" que se ha hecho viral

2019-11-13

Los candidatos del 10N son el nuevo Equipo A en un deepfake que se ha hecho viral Duración: 02:35 SIGUIENTE EN REPRODUCCIÓN: Entretenimiento Indica que te gusta en Facebook para ver historias similares Ya soy fan. No volver a mostrar este mensaje. Cuéntanos tu opinión de MSN Agradecemos tus comentarios.

es.paperblog.com

El Equipo E: el vídeo Deepfake de los políticos españoles que se ha hecho viral

2019-11-13

El Equipo E: el vídeo Deepfake de los políticos españoles que se ha hecho viral Por Sectorviral Las elecciones generales del 10N han provocado infinidad de memes como ya ha venido ocurriendo durante los últimos años: desde las ocurrencias de Albert Rivera en el debate electoral, pasando por los bulos de algunos partidos u otros muchos ocurrentes montajes con las caras de los líderes políticos. Pero si algo se está extendiendo con fuerza durante los últimos días, es el vídeo ‘[DeepFake] El Equipo E, con E de España’, que se basa en el comienzo de la famosa serie de televisión de ‘El Equipo A’. En este vídeo, se sustituyen las caras de los protagonistas de la serie original por montajes ‘deepfakes’ de los cinco líderes políticos españoles, esto es, usando las caras de otras personas con un resultado muy, muy real. Así empieza este vídeo: “En abril de 2019 los cinco principales candidatos a presidir el Gobierno español fueron votados por millones de personas a las que habían convencido. No tardaron en convocarse unas nuevas elecciones. Hoy, buscando todavía un acuerdo de gobierno, sobreviven como políticos con mayor o peor fortuna. Si tiene usted algún problema y se los encuentra, tenga la absoluta seguridad que prometerán ayudarle. Hoy no, mañana. El equipo E, con E de España”.

eldia.es

'Equipo E', la parodia viral deepfake de los líderes políticos españoles

2019-11-13

Equipo E , la parodia viral deepfake de los l?deres pol?ticos espa?oles El v?deo del momento usa una tecnolog?a para crear memes o incluso fake news eldia.es 13.11.2019 | 08:00 Es el  vídeo humorístico  del momento. Circula por distintas redes sociales y aplicaciones de mensajería instantánea y su autoría está atribuida a un grupo llamado Face to Fake , toma de base la cabecera de la célebre serie de televisión de los ochenta El Equipo A , pero sustituye los rostros de los protagonistaspor los de los líderes de los grandes partidos políticos de España. Su cabecera era muy conocida por su comienzo: En 1972 un comando compuesto por cuatro de los mejores hombres del ejército americano fueron encarcelados por un delito que no habían cometido . Así, Hannibal Smith, líder del grupo, se ha modificado con un notable realismo por la cara de Pablo Casado. Por su parte, Fénix, es Pedro Sánchez, líder del PSOE. Albert Rivera -que recientemente ha dimitido como líder de Ciudadanos- está caracterizado como el alocado Murdock y Santiago Abascal, de VOX, como M.A. Barracus . Por otro lado, y como los números no dan, Pablo Iglesias, de Unidas Podemos interpreta a Amy Amanda Allen, una reportera que formó parte del televisivo equipo en varios episodios. ¿Qué es un deepfake? Vivimos en un mundo cada vez más mediático en el que cualquiera puede acceder a todo tipo de información en Internet. El problema está precisamente en que con esa tal cantidad de noticias y viralidad corremos el riesgo de ser engañados. Desde su llegada al poder, Donald Trump ha extendido tanto el término fake news que parece que a día de hoy hay un mayor control en torno a estas informaciones. Pero mientras muchas páginas se dedican a publicar noticias falsas para ganarse unos cuantos clicks , hace tiempo que en la Red está extendiéndose una práctica que va un paso más allá: el deep fake . Este nuevo concepto de noticias falsas hace referencia a todos aquellos vídeos en los que se manipulan los rostros de sus protagonistas para poner la cara de otra persona de una manera muy realista. El verano pasado unos investigadores de la Universidad de Washington publicaron en Youtube un vídeo en el que el expresidente Barack Obama aparecía hablando a la cámara en primer plano. Todo parecía normal, pero en realidad se trataba de un deep fake . Los investigadores crearon las imágenes a partir de un audio de Obama. El objetivo del trabajo era meramente académico: aprender a sincronizar los movimientos sutiles de la boca de un personaje con una grabación de su voz. Pero aunque no tenían intención de alentar a crear vídeos falsos, las imágenes del expresidente estadounidense dieron pie a otros vídeos que pronto recibieron el nombre de deep fakes (falsedad profunda) por su capacidad para manipular informaciones. Esta tendencia, en la que los rostros de los protagonistas de las películas se cambian por los de otros actores, se convirtió poco a poco en el azote de los famosos. Especialmente en el caso de las actrices, que vieron como sus caras comenzaron a aparecer en películas pornográficas al cambiar los rostros de las estrellas del cine X por los suyos. Compartir en Twitter

elgrupoinformatico.com

DeepFake, así es la tecnología usada para el vídeo del "Equipo E"

2019-11-13

DeepFake, así es la tecnología usada para el vídeo del Equipo E Por Miguel Regueira | Hace 6 horas El viral del momento es el vídeo del Equipo E , una parodia de la serie ochentera del Equipo A , donde los líderes de los partidos políticos en España ocupan los lugares de los protagonistas. Y gracias a la tecnología DeepFake se ha logrado colocar su cara en escenas reales de la serie. El vídeo ha sido subido por el canal FaceToFake en YouTube, y se ha viralizado en redes sociales y WhatsApp no solo por su enfoque divertido, sino porque es crítico con los políticos tras la repetición de las elecciones en el 10-N, cuyos resultados no cambian demasiado las perspectivas de formación de gobierno. En el tráiler del Equipo E, con E de España vemos la cara de Pablo Casado colocada en el cuerpo de Hannibal, a Pedro Sánchez situado en las escenas de Fénix, Albert Rivera hace de Murdock y Santiago Abascal de M.A. (o bien Mr. T), todo ello gracias al uso de DeepFake. El papel más hilarante es para Pablo Iglesias. Dado que el Equipo A original solo tiene cuatro miembros, su cara se coloca en el cuerpo del personaje de Amanda Allen, una periodista que acompaña en algunas de sus aventuras a los soldados de fortuna de la serie estadounidense de televisión. Realizar un montaje de una calidad como el Equipo E en base a efectos especiales sería algo fuera del alcance de un canal de YouTube, pero los algoritmos de DeepFake aceleran y automatizan el trabajo de forma sorprendente. Usando sistemas de visión inteligente e inteligencia artificial, el algoritmo de DeepFake parte de la foto de una persona, y es capaz de colocarla la cara en un vídeo sobre el cuerpo de otra. Además, ajusta los movimientos, expresiones faciales y hasta los gestos de la boca al hablar. El primer uso para DeepFake del que se tuvo constancia fue modificar vídeos pornográficos añadiendo la cara de actrices de Hollywood , con lo que la tecnología nació marcada por la polémica. Pronto quedó claro que se usaría con fines peligrosos, como crear vídeo falsos para dañar la reputación de otras personas. Un vídeo tan convincente podría ser un arma política, sobre todo si consideramos que las fake news han influido en las elecciones recientes de varios países. Obviamente, un DeepFake puede ser utilizado con objetivos bienintencionados, y el vídeo humorístico del Equipo E es una prueba de ello. Si bien la mayoría de los proyectos se basan en un mismo software para crear los montajes, a día de hoy los sistemas DeepFakes están perfectamente documentados y su código es accesible para todos. Por lo tanto, resulta inevitable que poco a poco se extiendan, que distintos desarrolladores diseñen nuevos algoritmos más perfectos y también que aparezcan técnicas para comprobar si un vídeo es real o un DeepFake. En el caso del Equipo E no se pretende hacer pasar el clip como auténtico, ni tampoco su calidad lo haría posible, pero el desarrollo de nuevas técnicas convertirá a los DeepFakes en un problema de cara al futuro. Ya hemos visto apps como Zao, que intercambia los rostros de forma automática , así que este fenómeno no tardará en popularizarse. El montaje del Equipo E es un ejemplo de DeepFake inofensivo, pero tememos que muchos no lo serán.

msn.com

El Equipo A y la genial parodia 'deepfake' con los políticos españoles Hobby Consolas

2019-11-12

El Equipo A y la genial parodia deepfake con los políticos españoles El Equipo A y la genial parodia deepfake con los políticos españoles Javier Cazallas Madonna y los excrementos: la anécdota de Anitta en El Hormiguero © Redacción El equipo A Si tenemos que quedarnos con algo bueno de los bochornosos procesos electorales que estamos teniendo en los últimos años en nuestro país, es sin duda la enorme cantidad de memes y parodias que están saliendo a la luz a costa de los líderes de los diferentes partidos políticos. Aunque ciertamente, rara vez es la ocasión en la que algo sobresale como para que podamos hablar de ello aquí, en Hobbyconsolas. Pero hoy es la ocasión, ya que han usado la intro de la mítica serie ochentera de El Equipo A para dar rienda suelta a las mofas. El canal de YouTube conocido como FaceToFake ha recreado la intro original de El Equipo A, así como parte de la intro de la quinta temporada de la serie, dando un lavado de cara a los protagonistas de la serie y cambiando sus rostros por los de los líderes de los partidos políticos españoles. La currada intro nos muestra a Pablo Casado como Hannibal Smith, a Pedro Sánchez como Templeton Phoenix Peck, Albert Rivera como H.M. Loco Murdock, Santiago Abascal como M.A. Baracus y Pablo Iglesias como la periodista Amanda Allen.

uppers.es

DeepFake, la tecnología permite hacer videos como el viral del 'Equipo E' y que esconde un lado os

2019-11-12

DeepFake, la tecnología permite hacer videos como el viral del Equipo E y que esconde un lado oscuro Nacho Hontoria12/11/201917:46h. Los algoritmos son cada vez más evolucionados en este campo El vídeo viral del día y, posiblemente, de todo el mes, es el que están protagonizando los principales políticos españoles , cuyas caras han sido colocadas mediante un software en los cuerpos de los personajes de la serie mítica El Equipo A . ¿Cómo lo han hecho? Para llevarlo a cabo, tan solo hace falta un programa de software, como DeepFaceLab, en el que se coloca, por un lado, las caras de las personas que se quieren insertar a posteriori en el vídeo y, por el otro, el vídeo base en donde se las quiera meter. Esta tecnología es la que ha hecho posible vídeos divertidos como este, pero también presenta un lado oscuro. Por ejemplo, el expresidente de los Estados Unidos, Barack Obama, fue víctima de un vídeo con DeepFake que puso en su boca palabras que no había pronunciado nunca. Más tarde, se usó como ejemplo al mandatario estadounidense para advertir sobre los malos usos que podía tener esta tecnología. Otra de las utilidades que ha tenido este tipo de tecnología es la de colocar la cara de personajes famosos en películas porno, con el grado de peligrosidad que esto puede llegar a suponer para su reputación personal. No obstante, además de para divertirnos con vídeos como el del Equipo E , la tecnología DeepFake también nos ha regalado poder seguir disfrutando de la joven Princesa Leia (Carry Fisher) en las escenas de Rogue One, cuando en realidad el papel estaba interpretado por la actriz noruega Ingvild Deila. Cómo detectar vídeos con DeepFake Para poder detectar un vídeo que ha sido realizado con DeepFake hay que tener el ojo muy entrenado o utilizar programas específicos que puedan identificar si el movimiento de la boca es propio del personaje o viene de una fuente externa.  El deepfake de Jim Carrey a Jack Nicholson en El resplandor . Escalofriante en cada milisegundo. pic.twitter.com/MQVstL1ia4

msn.com

El Equipo A y la genial parodia 'deepfake' con los políticos españoles

2019-11-12

El Equipo A y la genial parodia deepfake con los políticos españoles Javier Cazallas Miley Cyrus se queda muda: operada con urgencia de las cuerdas vocales © Redacción El equipo A Si tenemos que quedarnos con algo bueno de los bochornosos procesos electorales que estamos teniendo en los últimos años en nuestro país, es sin duda la enorme cantidad de memes y parodias que están saliendo a la luz a costa de los líderes de los diferentes partidos políticos. Aunque ciertamente, rara vez es la ocasión en la que algo sobresale como para que podamos hablar de ello aquí, en Hobbyconsolas. Pero hoy es la ocasión, ya que han usado la intro de la mítica serie ochentera de El Equipo A para dar rienda suelta a las mofas. El canal de YouTube conocido como FaceToFake ha recreado la intro original de El Equipo A, así como parte de la intro de la quinta temporada de la serie, dando un lavado de cara a los protagonistas de la serie y cambiando sus rostros por los de los líderes de los partidos políticos españoles. La currada intro nos muestra a Pablo Casado como Hannibal Smith, a Pedro Sánchez como Templeton Phoenix Peck, Albert Rivera como H.M. Loco Murdock, Santiago Abascal como M.A. Baracus y Pablo Iglesias como la periodista Amanda Allen.

msn.com

El Equipo A y la genial parodia deepfake con los políticos españoles Hobby Consolas

2019-11-12

El Equipo A y la genial parodia deepfake con los políticos españoles El Equipo A y la genial parodia deepfake con los políticos españoles Javier Cazallas Emilia Clarke y un polígrafo: los fans de Juego de Tronos , a sus pies © Redacción El equipo A Si tenemos que quedarnos con algo bueno de los bochornosos procesos electorales que estamos teniendo en los últimos años en nuestro país, es sin duda la enorme cantidad de memes y parodias que están saliendo a la luz a costa de los líderes de los diferentes partidos políticos. Aunque ciertamente, rara vez es la ocasión en la que algo sobresale como para que podamos hablar de ello aquí, en Hobbyconsolas. Pero hoy es la ocasión, ya que han usado la intro de la mítica serie ochentera de El Equipo A para dar rienda suelta a las mofas. El canal de YouTube conocido como FaceToFake ha recreado la intro original de El Equipo A, así como parte de la intro de la quinta temporada de la serie, dando un lavado de cara a los protagonistas de la serie y cambiando sus rostros por los de los líderes de los partidos políticos españoles. La currada intro nos muestra a Pablo Casado como Hannibal Smith, a Pedro Sánchez como Templeton Phoenix Peck, Albert Rivera como H.M. Loco Murdock, Santiago Abascal como M.A. Baracus y Pablo Iglesias como la periodista Amanda Allen.

realovirtual.com

Off-topic >> [HUMOR] DeepFake. El Equipo E, con E de España (parodia de El Eq

2019-11-12

dinodini » Hoy  13:03 Pongo aquí este vídeo porque me ha hecho mucha gracia. Hacía tiempo que no veían un vídeo tan currado en Youtube. Se merece salir en un programa de humor de TV. WELCOME TO THE FUTURE

genbeta.com

'Equipo E', la parodia viral deepfake de los líderes políticos españoles que demuestra que estos ví

2019-11-12

Telegram Publicidad Equipo E , la parodia viral deepfake de los líderes políticos españoles que demuestra que estos vídeos son ya imparables Antonio Sabán @ansamor La nueva política se ha convertido, entre otras cosas, en la política del meme , y así hemos ido viendo como avances y novedades en redes sociales como filtros se hacían protagonistas de las campañas por parte de los partidos y de las reacciones de muchos usuarios. Si la semana pasada hablábamos por aquí de cómo los deepfakes se habían popularizado enormemente entre 2018 y 2019 , el clip del Equipo E es el ejemplo perfecto de la potencia de estos vídeos. Se trata de un vídeo que integra en forma de parodia la realidad de la política española tras los resultados de las elecciones generales del 10 de noviembre en el universo del mítico Equipo A . Como buen deepfake, la cara de los líderes españoles ha sido utilizada para suplantar las caras de los miembros de la serie de los 80, y el resultado es desternillante. Este deepfake hace gracia y asusta por partes iguales Pablo Hannibal Smith, Pedro Sánchez Fénix , Pablo Allen Iglesias, Albert Murdock Rivera y S.A Barracus son los personajes de este vídeo. Lo más impresionante de él es que por momentos llega a parecer real. Es así, por ejemplo, en un caso que paradójicamente resulta complicado. Baracus es Santiago Abascal, y dado que el actor que le representaba Mr. T, era afroamericano, la piel del político se ha oscurecido. Eso, que podría plantear problemas, ha sido mejor solventado que otros retos como mantener las caras en movimiento. En 1972 cuatro de los mejores hombres... bueno no es así tal cual pero mantiene algo de ese espíritu, hoy os traigo el #Deepfake con más caras intercambiadas hasta la fecha, hasta cinco en un mismo vídeo Y escena. Si tiene usted algún problema NO llame a: https://t.co/xELBs34Q0T — FaceToFake (@RealFaceToFake) November 11, 2019 El vídeo resulta muy gracioso por el papel que se le asigna a cada líder y por lo realista que parece, pero no tenemos que perder de vista que si bien en este caso está creados con fines satíricos, lo preocupante de este tipo de obras es que dentro de poco tiempo estarán tan perfeccionadas que podrán utilizarse para modificar la identidad, incluso para suplantarla. Hemos conseguido instalar Zao para Android, así es la increíble app de deepfakes para poner tu cara en tus películas favoritas Detrás de la creación se encuentra la cuenta de Twitter @ RealFaceToFake , especializada en deepfakes cómicos, que explica que el vídeo del Equipo E se trata del proyecto más ambicioso hasta la fecha, pues es el primero que realiza intercambiando hasta cinco rostros en un mismo vídeo y escena. Pedro Sánchez y Pablo Iglesias. Por @RealFaceToFake pic.twitter.com/eFYYq2H2Q5 — Manuel Ansede (@manuelansede) November 11, 2019 Algo es seguro. Si muchos usuarios de foros y redes sociales han demostrado y demuestran cada día sus habilidades con Photoshop para hacer chops y memes, cuando las herramientas para hacer deepfakes con esta calidad se democraticen nos vamos a reír y mucho. Es la otra cara de la moneda. Compartir Equipo E , la parodia viral deepfake de los líderes políticos españoles que demuestra que estos vídeos son ya imparables

ecodiario.eleconomista.es

El Equipo E: los políticos españoles protagonizan la mejor parodia deepfake de 2019

2019-11-12

EcoDiario.es Mezclan El Equipo A con la política española Cambian la cara de los protagonistas con FaceToFake Albert Rivera es Murdock y Santiago Abascal es M.A. El Equipo A de la NBC y los candidatos. Imagen: Reuters Enlaces relacionados ¿Homer o Rajoy? Adivina a quién pertenecen estas frases Pocas series de televisión de los años 80 son tan conocidas como El Equipo A, una de las muchas licencias de acción que aparecieron en los canales americanos en la época -y que fueron llevadas a otros países como España-. Todos recuerdan la serie que mezclaba escenas de acción con toques de humor por su carismático conjunto de personajes, protagonizados por George Peppard, Dirk Benedict, Dwight Schultz y Mr. T. ¿Y si los personajes fueran los principales líderes de los partidos políticos españoles? No es un secreto que los políticos españoles son habitualmente objeto de memes y chistes en las redes, especialmente en un momento como el actual, en donde los ciudadanos viven crispados por la repetición de elecciones y la incapacidad de los dirigentes a poder pactar. Pedro Sánchez, Pablo Casado, Albert Rivera, Pablo Iglesias o Santiago Abascal son los protagonistas del último vídeo parodia que se ha viralizado en las redes sociales, y que mezcla la política española con El Equipo A. Así es El Equipo E En abril de 2019 los cinco principales candidatos a presidir el gobierno español fueron votados por millones de personas a las que habían convencido, no tardaron en convocarse unas nuevas elecciones. Hoy, buscando todavía un acuerdo de gobierno, sobreviven como políticos con mayor o menor fortuna. Si tiene usted algún problema y se los encuentra, tenga la absoluta seguridad de que prometerán ayudarle... Hoy no, mañana . Parodiando la mítica intro de la serie de los 80, el vídeo deepfake empieza con estas palabras para dar paso a los protagonistas. Youtube Video Pero Hannibal, Murdock, Fénix, M.A. y Amy han sido sustituidos esta vez por los candidatos al gobierno en estas pasadas elecciones. Gracias a la aplicación FaceToFake un usuario ha cambiado de manera magistral las caras de los personajes, con un resultado bastante realista y cómico. Pablo Casado es Hannibal, Albert Rivera es Murdock, Pedro Sánchez es Fénix, Pablo Iglesias es Amy y Santiago Abascal es M.A. La parodia es tan buena que los usuarios no han parado de compartir el vídeo, teniendo ya más de 300.000 visualizaciones y cumpliendo su objetivo. Como diría el bueno de Hannibal, me encanta que los planes salgan bien . Enlaces relacionados

elcorreo.com

Equipo E: el Deepfake de los líderes políticos que se ha hecho viral

2019-11-12

Esta es tu última noticia por ver este mes Suscríbete desde 4,95€ al mes y disfruta de todo el contenido de EL CORREO sin interrupciones ¿Ya eres suscriptor/a? Inicia sesión Te quedan noticias por ver en este mes Te queda 1 noticia por ver en este mes Suscríbete a El CORREO on+ por 4,95€ al mes y además este mes podrás ganar una Smart TV con tu suscripción ¿Ya eres suscriptor/a? Inicia sesión Has alcanzado tu límite de navegación este mes Disfruta sin límites del periodismo cercano y de calidad. Suscríbete desde 4,95€ al mes

genbeta.com

'Equipo E', la parodia viral deepfake de los líderes políticos españoles que demuestra que estos

2019-11-12

Telegram Publicidad Equipo E , la parodia viral deepfake de los líderes políticos españoles que demuestra que estos vídeos son ya imparables Antonio Sabán @ansamor La nueva política se ha convertido, entre otras cosas, en la política del meme , y así hemos ido viendo como avances y novedades en redes sociales como filtros se hacían protagonistas de las campañas por parte de los partidos y de las reacciones de muchos usuarios. Si la semana pasada hablábamos por aquí de cómo los deepfakes se habían popularizado enormemente entre 2018 y 2019 , el clip del Equipo E es el ejemplo perfecto de la potencia de estos vídeos. Se trata de un vídeo que integra en forma de parodia la realidad de la política española tras los resultados de las elecciones generales del 10 de noviembre en el universo del mítico Equipo A . Como buen deepfake, la cara de los líderes españoles ha sido utilizada para suplantar las caras de los miembros de la serie de los 80, y el resultado es desternillante. Este deepfake hace gracia y asusta por partes iguales Pablo Hannibal Smith, Pedro Sánchez Fénix , Pablo Allen Iglesias, Albert Murdock Rivera y S.A Barracus son los personajes de este vídeo. Lo más impresionante de él es que por momentos llega a parecer real. Es así, por ejemplo, en un caso que paradójicamente resulta complicado. Baracus es Santiago Abascal, y dado que el actor que le representaba Mr. T, era afroamericano, la piel del político se ha oscurecido. Eso, que podría plantear problemas, ha sido mejor solventado que otros retos como mantener las caras en movimiento. En 1972 cuatro de los mejores hombres... bueno no es así tal cual pero mantiene algo de ese espíritu, hoy os traigo el #Deepfake con más caras intercambiadas hasta la fecha, hasta cinco en un mismo vídeo Y escena. Si tiene usted algún problema NO llame a: https://t.co/xELBs34Q0T — FaceToFake (@RealFaceToFake) November 11, 2019 El vídeo resulta muy gracioso por el papel que se le asigna a cada líder y por lo realista que parece, pero no tenemos que perder de vista que si bien en este caso está creados con fines satíricos, lo preocupante de este tipo de obras es que dentro de poco tiempo estarán tan perfeccionadas que podrán utilizarse para modificar la identidad, incluso para suplantarla. Hemos conseguido instalar Zao para Android, así es la increíble app de deepfakes para poner tu cara en tus películas favoritas Detrás de la creación se encuentra la cuenta de Twitter @ RealFaceToFake , especializada en deepfakes cómicos, que explica que el vídeo del Equipo E se trata del proyecto más ambicioso hasta la fecha, pues es el primero que realiza intercambiando hasta cinco rostros en un mismo vídeo y escena. Pedro Sánchez y Pablo Iglesias. Por @RealFaceToFake pic.twitter.com/eFYYq2H2Q5 — Manuel Ansede (@manuelansede) November 11, 2019 Algo es seguro. Si muchos usuarios de foros y redes sociales han demostrado y demuestran cada día sus habilidades con Photoshop para hacer chops y memes, cuando las herramientas para hacer deepfakes con esta calidad se democraticen nos vamos a reír y mucho. Es la otra cara de la moneda. Compartir Equipo E , la parodia viral deepfake de los líderes políticos españoles que demuestra que estos vídeos son ya imparables

ecartelera.com

Un montaje deepfake convierte a los políticos españoles en 'El equipo A'

2019-11-12

eCartelera Bienvenido Conéctate para puntuar películas, escribir críticas y mucho más ¡Puedes utilizar tu nombre de usuario y contraseña existente de FormulaTV ! ¿No tienes cuenta? o utiliza tu red social favorita ¿Contraseña olvidada? Un montaje deepfake convierte a los políticos españoles en El equipo A Inés Menéndez Martes 12 noviembre 2019 Facebook Twitter Google+ Internet es un sitio donde uno se puede encontrar casi cualquier cosa, incluso a los políticos españoles en modo acción y protagonizando la cabecera de El equipo A , ahora reconvertido en El equipo E . Un montaje deepfake ha utilizado las caras de los cinco candidatos principales en las últimas elecciones para tomarse con mucho humor la situación política española. Si la cabecera original nos presentaba a un grupo de veteranos de guerra que, tras ser condenados por un crimen que no cometieron, sobreviven como soldados a sueldo ayudando a aquellos que lo necesitan, en esta nueva versión ibérica la situación es un poco distinta: En abril de 2019 los cinco principales candidatos a presidir el gobierno español fueron votados por millones de personas a las que habían convencido. No tardaron en convocarse unas nuevas elecciones. Hoy, buscando todavía un acuerdo de gobierno, sobreviven como políticos con mayor o menor fortuna. Si tiene usted algún problema y se los encuentra, tenga la absoluta seguridad de que prometerán ayudarle . Así presenta el montaje a este Equipo E, con E de España , aclarando: Hoy no, mañana . Tras las imágenes de Madrid que protagonizan la primera parte del vídeo, podemos ver a continuación a los personajes clásicos de la serie original, pero en esta ocasión con los rostros de los políticos españoles. Así, este vídeo nos presenta a Pablo Hannibal Smith, con Pablo Casado sustituyendo a George Peppard como John Hannibal Smith; Pedro Sánchez Fénix en el lugar de Dirk Benedict ; Pablo Allen Iglesias en el papel de Amy Amanda Allen, interpretada en la serie por Melinda Culea; Albert Murdock Rivera en el personaje de Dwight Schultz; y Santiago Abascal como S. A. Barracus sustituyendo a Mr. T . Los peligros del deepfake Este nuevo ejemplo de montaje deepfake reaviva los debates sobre la utilización de este tipo de técnicas y los peligros que puede llegar a provocar. La utilización de rostros de otros, por norma general sin su permiso, para este tipo de vídeos, ya ha acarreado múltiples protestas y durante los últimos años se han producido distintas reacciones por parte de plataformas y redes sociales. Portales como Twitter, Reddit o PornHub decidieron prohibir este tipo de contenidos y eliminarlos en el caso de recibir denuncias contra montajes de este estilo. Artículos recomendados

hobbyconsolas.com

El Equipo A y la genial parodia deepfake con los políticos españoles

2019-11-12

El Equipo A y la genial parodia deepfake con los políticos españoles Comentar Si tenemos que quedarnos con algo bueno de los bochornosos procesos electorales que estamos teniendo en los últimos años en nuestro país, es sin duda la enorme cantidad de memes y parodias que están saliendo a la luz a costa de los líderes de los diferentes partidos políticos. Aunque ciertamente, rara vez es la ocasión en la que algo sobresale como para que podamos hablar de ello aquí, en Hobbyconsolas. Pero hoy es la ocasión, ya que han usado la intro de la mítica serie ochentera de El Equipo A para dar rienda suelta a las mofas. El canal de YouTube conocido como FaceToFake ha recreado la intro original de El Equipo A, así como parte de la intro de la quinta temporada de la serie, dando un lavado de cara a los protagonistas de la serie y cambiando sus rostros por los de los líderes de los partidos políticos españoles. La currada intro nos muestra a Pablo Casado como Hannibal Smith, a Pedro Sánchez como Templeton Phoenix Peck, Albert Rivera como H.M. Loco Murdock, Santiago Abascal como M.A. Baracus y Pablo Iglesias como la periodista Amanda Allen. Disfruta del mes de prueba de Amazon Prime Video y ponte al día con las mejores series y películas de la plataforma ...¡Gratis! Este tipo de parodias nos ayudan, en parte, a olvidar la tensa y nefasta en general situación política de nuestro país, aunque detrás de toda parodia se esconde un mensaje, como las promesas vacías de los políticos y lo rápido que se olvidan de cumplirlas una vez alcanzan, o no, sus objetivos. También tenemos un mordaz dardo a los líderes políticos más extremistas del mundo es el primer capítulo de la temporada 4 de Rick y Morty , cuya crítica ya podéis leer en la web. ¿Qué os ha parecido la intro de El Equipo A con nuestros representantes políticos como protagonistas? ¡Con E de España!

lavanguardia.com

El vídeo deepfake que ridiculiza a los políticos como si fueran â??El equipo Aâ??

2019-11-12

12/11/2019 09:28 | Actualizado a 12/11/2019 09:37 Las maravillas que se pueden conseguir ahora mismo con programas informáticos. Coges las imágenes que quieras, eliges el rostro de cualquier persona que se te ocurra por la cabeza y de repente tienes un vídeo muy verosímil que lo falsea por completo todo. Esto son los vídeos deepfakes. ¿Y quiénes son las nuevas víctimas de esta moda? Pues los cabezas de lista de las últimas elecciones generales, las del 10N, que han sido ridiculizados como si fueran el Equipo A. Eso sí, ellos son El equipo E, con E de España. Esta sintonía explica el por qué de esta aventura: “En abril de 2019 los cinco principales candidatos a presidir el Gobierno español fueron votados por millones de personas a las que habían convencido. No tardaron en convocarse unas nuevas elecciones. Hoy, buscando todavía un acuerdo de gobierno, sobreviven como políticos con mayor o peor fortuna. Si tiene usted algún problema y se los encuentra, tenga la absoluta seguridad que prometerán ayudarle. Hoy no, mañana. El equipo E, con E de España”. A ver, no tiene precio ver al socialista Pedro Sánchez como Templeton Peck (Dirk Benedict), el personaje más encantado de si mismo y de su aspecto físico; o ver al popular Pablo Casado como si fuera Hannibal (George Peppard) y ya hubiera cumplido los sesenta; o a Albert Rivera como Murdock (Dwight Schultz), que permite imaginar cómo sería ahora mismo el exlíder de Ciudadanos si no hubiera resuelto su problema capilar de hace unos años; y a Pablo Iglesias con el pelo suelto y unas sonrisas encantadoras. Pablo Iglesias en el vídeo cómico. (Youtube) Eso sí, nada puede superar el impacto de ver a Santiago Abascal, el político de ultraderecha, en el rol de B.A. Baracus (Mr T). ¿No tiene gracia que los responsables de este vídeo, Face to Fake, hayan optado por cambiar el color de piel de la formación racista? Santiago Abascal como Mr T (Twitter)

merca20.com

Deepfakes: ¿la nueva herramienta de manipulación?

2019-11-12

Hacen bien quienes desconfían hasta de su sombra. En tiempos en los que la desinformación corre a raudales, la verdad se ha convertido en una moneda de cambio muy valiosa y difícil de conseguir. Y es que las fake news no son sólo cada vez más virales: también son más sofisticadas. Esa parece ser la nueva regla en el negocio de la información. Quizás ya lo haya escuchado antes, si no, le presento el término: deepfakes. Traducido al español quiere decir algo así como “verdades profundas”. Y eso es lo que son. ¿Recuerda aquel video en el que Barack Obama aseguraba que Donald Trump era un idiota? Bien, pues era falso. Sí, era la cara de Obama con sus facciones, sus gesticulaciones, sus movimientos, su voz. Pero no era él. Era una réplica hecha con inteligencia artificial. Ese video fue un experimento de Buzzfeed, empresa de medios líder en la generación de contenidos virales desde 2006. Sin embargo, esa farsa también fue el aviso de una nueva tendencia en la industria de los medios de comunicación, el marketing digital y la propaganda política. Nunca antes se habían utilizado tecnologías tan avanzados para falsear información. Mucho menos para suplantar identidades de jefes de Estado. No es exagerado creer que las deepfakes son uno de los avances tecnológicos más preocupantes de la humanidad. ¿Qué pasaría si esa inteligencia artificial se utilizara, por ejemplo, para comenzar una guerra o para realizar un fraude financiero? ¿Qué pasaría si los discursos que vemos en nuestras pantallas no son lo que parecen ser? Mientras el mundo debate sobre la pertinencia de esta tecnología, las marcas y las redes sociales ya han aprendido a sacarle jugo. Esta semana, el canal de YouTube Ctrl Shift Face —que se dedica a realizar deepfakes graciosas o simpáticas— lanzó una parodia de la película No Country for Old Men, de los talentosísimos hermanos Coen. En ella, el actor español Javier Bardem es reemplazado por el polémico Arnold Schwarzenegger. La escena es tan elaborada que, si no se ve con detenimiento, puede hacerse pasar por verdadera. De la misma forma hay parodias de Freddie Mercury, Donald Trump o Al Pacino. E incluso una supuesta imitación de Jim Carrey a Jack Nickholson en El Resplandor. El peligro de aplicar la inteligencia artificial a la fabricación de noticias falsas es el inicio de una catástrofe informativa sin precedentes, según han advertido organismos internacionales como la ONU. Las principales responsables de combatirlas, sin embargo, parecen ser las redes sociales. Este lunes, Twitter anunció su intención de diseñar una política que permita combatir las deep fakes, principalmente en el ámbito político, donde podrían desatar crisis diplomáticas y económicas que será mejor no imaginar. Para ello, la red creada por Jack Dorsey ha decidido recabar las opiniones de sus usuarios acerca de esta problemática a través del hashtag #TwitterPolicyFeedback. Los más recientes avances de la inteligencia artificial proceden de algoritmos muy específicos, es decir, de redes neuronales artificiales profundas conocidas como deep learning. Estos algoritmos son capaces de manipular imágenes, video, audio y texto con base en conocimientos aprendidos. Es así como un algoritmo puede almacenar rápidamente la “personalidad” de Donald Trump y replicarla después. Por eso a los realizadores de deep fakes les conviene tanto el Big Data, pues de esa gigantesca nube pueden obtener el tipo de información que ellos quieran. En octubre pasado se lanzó un programa que es capaz de generar noticias falsas a partir de un algoritmo alimentado con una simple frase. Esto fue desarrollado por OpenAI, una compañía estadounidense de investigación de inteligencia artificial sin fines de lucro. Y es que si las fake news ya se fabrican a escala industrial, más vale estar prevenidos, porque el 70 por ciento de las noticias falsas se propagan mucho más fácil que las verdaderas, de acuerdo con un estudio del MIT elaborado a principios de 2008. Quizás uno de los efectos más negativos es que las deepfakes arruinan vidas personales. Es el caso de la periodista independiente Rana Ayyub, cuyo rostro fue replicado en un video pornográfico. “Cada mañana me despierto y veo estos tuits con la captura de pantalla de un video porno con mi cara en él. Ha sido un infierno”, confesó a la BBC en abril de 2018.

forocoches.com

Deepfake del Equipo A con los caretos de Rivera, Iglesias, S...»

2019-11-12

Deepfake del Equipo A con los caretos de Rivera, Iglesias, S?nchez, Abascal, Casado Usuario Deepfake del Equipo A con los caretos de Rivera, Iglesias, S?nchez, Abascal, Casado   Qu? cosa m?s grande Dios m?o   Pero como cojones se hace esta maravilla? PLATAFORMA ser hombre no es delito miembro 331   Lugar: Podr?a ser tu vecino... Gran Turismo Compacto PE?A COLCHONERA Socio n?mero 352 Plataforma: Extreme?os en el foro.(Socio n?49)   esto de los deepfakes va a cambiar el mundo, hacedme caso   Lo mejor que he visto en mucho tiempo en cuanto a humor. Gracias por ponerlo. Me cago en la virgen. Menuda maravilla   Seat Ibiza GT TDI, Suzuki Bandit 600 Brutal shur, ya le he pasado el link a todo cristo

sonyxperiaz2.com

Twitter llama a la participación pública para mejorar sus nuevas reglas contra las deepfakes

2019-11-12

Twitter llama a la participación pública para mejorar sus nuevas reglas contra las deepfakes google+ La transformación de la propia tecnología hace que las plataformas sociales tengan que estar actualizando sus políticas y herramientas(tools) continuamente para inventar frente a los nuevos problemas que a la vez van llegando. En el caso de Twitter, la empresa ya se puso a laborar semanas atrás en las nuevas reglas, en contribución con ingenieros y especialistas, con las que pretende inventar frente a los contenidos multi media alterados y publicados con el término de engañar y manipular a los usuarios. Ahora, la empresa da un paso más al respecto pidiendo la contribución de los usuarios en la mejora de estas reglas para inventar frente a esos contenidos multi media engañosos, a los que define como contenidos multi media sintéticos y manipulados, en clara referencia a los deepfakes o shallowfakes. Adaptándose a los tiempos en contribución con los mismos usuarios Para ello, la empresa ha compartido un borrador de las nuevas reglas en las que señalan su finalidad de colocar un anuncio en los tweets que compartan contenido multi media sintético y manipulado, avisar a los clientes antes de colaborar o dar «me gusta» a este tipo de contenidos, y agregar link a algunas fuentes que permitan a los clientes contrastar la falta de veracidad de aquellos tweets señalados como contenidos multi media sintéticos o manipulados. Los interesados en participar pueden facilmente entrar a este enlace , donde obtendrán una breve encuesta para rellenar, estando habilitado en diferentes idiomas, incluido el español, y que irá creciendo de manera paulatina con el término de poder recabar la colaboración del mayor número de personas(individuos) potenciales en todo el mundo. También bridan la oportunidad de colaborar las impresiones a través del hashtag #TwitterPolicyFeedback, e inclusive invitan a aquellos que sean aptos de inventar conclusiones para la detección de contenido multi media sintético y manipulado a que rellenen un formulario. La colaboración se cerrará el 27 de noviembre(mes del año) para posteriormente analizar el feedback de los clientes y efectuar las avances oportunas. Prometen de que avisarán al menos 30 días antes de que las nuevas reglas entre en vigor.

wwwhatsnew.com

Twitter llama a la participación pública para mejorar sus nuevas reglas contra las deepfakes

2019-11-12

Twitter llama a la participación pública para mejorar sus nuevas reglas contra las deepfakes Publicado el 12 noviembre, 2019 La evolución de la propia tecnología hace que las plataformas sociales tengan que estar actualizando sus políticas y herramientas constantemente para hacer frente a los nuevos problemas que también van llegando. En el caso de Twitter, la compañía ya se puso a trabajar semanas atrás en las nuevas reglas, en colaboración con expertos y especialistas, con las que pretende hacer frente a los contenidos multimedia alterados y publicados con el fin de engañar y manipular a los usuarios. Ahora, la compañía da un paso más al respecto pidiendo la colaboración de los usuarios en la mejora de estas reglas para hacer frente a esos contenidos multimedia engañosos, a los que define como contenidos multimedia sintéticos y manipulados, en clara referencia a los deepfakes o shallowfakes. Adaptándose a los tiempos en colaboración con los mismos usuarios Para ello, la compañía ha compartido un borrador de las nuevas reglas en las que señalan su intención de colocar un aviso en los tweets que compartan contenido multimedia sintético y manipulado, advertir a los usuarios antes de compartir o dar «me gusta» a este tipo de contenidos, y añadir enlace a algunas fuentes que permitan a los usuarios contrastar la falta de veracidad de aquellos tweets señalados como contenidos multimedia sintéticos o manipulados. Los interesados en participar pueden simplemente acceder a este enlace , donde obtendrán una breve encuesta para rellenar, estando disponible en distintos idiomas, incluido el español, y que irá creciendo de manera paulatina con el fin de poder recabar la participación del mayor número de personas posibles en todo el mundo. También ofrecen la posibilidad de compartir las impresiones a través del hashtag #TwitterPolicyFeedback, e incluso invitan a aquellos que sean capaces de crear soluciones para la detección de contenido multimedia sintético y manipulado a que rellenen un formulario. La participación se cerrará el 27 de noviembre para posteriormente analizar el feedback de los usuarios y realizar las mejoras oportunas. Prometen de que avisarán al menos 30 días antes de que las nuevas reglas entre en vigor. Publicado en

meneame.net

[DeepFake] El Equipo E, con E de España

2019-11-11

Deepfake parodiando a El Equipo A con Pablo Casado, Pedro Sánchez, Pablo Iglesias, Albert Rivera y Santiago Abascal de protagonistas. etiquetas: deepfake »noticia original (www.youtube.com)

periodicotribuna.com.ar

Deepfakes: ¿Qué son y cuál es su impacto?

2019-11-11

Tweet on Twitter Software de inteligencia artificial El vertiginoso avance de la tecnología es algo a lo que ya estamos acostumbrados, todo tiende a la inmediatez, estamos en un delivery virtual de todo lo que necesitamos, y que sea ahora. Este avance tan rápido hace que el desarrollo de software crezca a pasos agigantados, y si comparamos la velocidad del software que usamos en nuestras computadoras o smartphones con los dispositivos de hace 20 años, veremos para lo que antes se necesitaba invertir miles o millones de dólares ahora está al alcance de nuestras manos: desde hablar por teléfono, realizar una videollamada, descargar una película en minutos, y hace relativamente poco le agreguemos la edición audiovisual.   Todo avanza y esa tecnología fue llegando a las PCs e incluso a los celulares de la mano del aprendizaje de las máquinas de bajo costo o incluso gratuito, y llegamos al punto que cualquier persona con un poco de conocimiento puede hacer un video gracioso, o uno ofensivo, en muy poco tiempo. Los filtros de Instagram, por ejemplo, reemplazan nuestros ojos, boca, nariz o cara completa de forma instantánea. Ya hay filtros incluso que reemplazan nuestra cara por otros rostros, más caricaturescos seguro, pero, ¿qué pasa si esos filtros siguen subiendo su calidad? Los llamados deep fakes son videos que en sus comienzos eran en su mayoría pornográficos, reemplazando las caras de actrices porno por celebridades: Ema Watson, Gal Gadot, Emily Clarke y la lista sigue, basta con hacer una simple búsqueda en Internet y tendremos más de 500.000 resultados. Si te avisan que el video que miras es un deepfake, tu percepción no es la misma que si no lo supieras, tus ojos ven algo muy real, pero tu cerebro sabe que no lo es. Y así lo que se hizo conocido como una edición de videos porno, ahora se han volcado al terreno de las fake news, era algo que se esperaba sabiendo los intereses y fanatismo que mueve la política. El software de inteligencia artificial necesita de mucha información para poder funcionar correctamente, toma puntos de referencia del rostro a replicar y los proyecta sobre otro que es el que hace el movimiento, replica esos puntos de referencia y con eso ya tenemos el primer tramo listo, luego vendrá una edición más fina de luces, sombras y detalles que se necesitan si se busca un video más real. Es por eso que actores y políticos son presa fácil de este sistema. Todo esto no significa que estamos indefensos ante la información falsa, el software todavía tiene sus fallas o detalles que podemos tener en cuenta para saber detectar un video real de uno falso (y es probable que si lees esta nota en unos meses ya este punto haya sido superado). Estar atento a su parpadeo (deepfakes parpadean mucho menos que un humano), comparar su cara con su cuello, color de piel, proporciones, si el audio está bien sincronizado con sus labios, si el interior de la boca y dientes no es nítido son algunas pistas que podemos tener para su detección, así como también la duración del video, por lo general estos videos son de unos pocos segundos o minutos. En la serie Years and Years la politóloga Vivienne Rook (maravillosamente interpretada por Emma Thompson) aprovecha un deepfake de su contrincante político a favor de su carrera política, a pesar que los ciudadanos saben que el video no es real, ella sabe como convencerlos de que su opositor está muy en línea con el contenido del video. A medida que la tecnología avance, detectar un deepfake va a ser cada vez más complicado, leyes modernas es lo primero que se necesita para regularlos, la manipulación con fines políticos tiene graves consecuencias, sumar un elemento más como los videos (el formato que más credibilidad, interacción y distribución tiene en las rede sociales). Esto no significa necesariamente que estemos ante el umbral del fin de la verdad. Como con cualquier avance tecnológico, tendremos que ser escépticos y más atentos, y que no sea sólo la inteligencia artificial la que mejore, sino también la nuestra. COMPARTIR

eldiariodelarepublica.com

Espectáculos Ciencia ficción y cine en casa: lo nuevo en Frecuencia Friki

2019-11-11

Ciencia ficción y cine en casa: lo nuevo en Frecuencia Friki Su navegador no soporta el elemento de audio X |   11 de Noviembre de 2019 Ciencia ficción y cine en casa: lo nuevo en Frecuencia Friki Foto: Captura de pantalla. La última emisión del programa de Lafinur FM Radio trajo las novedades del fandom. Canal 13 sumó a su plantilla películas de Hayao Miyazaki, el libro de ciencia ficción con autores puntanos CoLiPuCiFa está por llegar y el videojuego Red Dead Redemption 2 ya se encuentra disponible. Esto, es algunas de las cosas que tuvo el programa Frecuencia Friki de Lafinur FM Radio. El programa se emite todos los viernes de 21 a 22:30 en  https://fmradiolafinur.com/  o por el dial 90.9. Ciencia ficción y cine en casa: lo nuevo en Frecuencia Friki Ciencia ficción y cine en casa: lo nuevo en Frecuencia Friki La última emisión del programa de Lafinur FM Radio trajo las novedades del fandom. Foto: Captura de pantalla. Canal 13 sumó a su plantilla películas de Hayao Miyazaki, el libro de ciencia ficción con autores puntanos CoLiPuCiFa está por llegar y el videojuego Red Dead Redemption 2 ya se encuentra disponible. Esto, es algunas de las cosas que tuvo el programa Frecuencia Friki de Lafinur FM Radio. El programa se emite todos los viernes de 21 a 22:30 en  https://fmradiolafinur.com/  o por el dial 90.9. Servicios

elliberal.com.ar

Deepfakes: ¿qué son y cuál es su impacto?

2019-11-11

Deepfakes: ¿qué son y cuál es su impacto? - 11:36 Opinión Por Joan Cwaik (*) El vertiginoso avance de la tecnología es algo a lo que ya estamos acostumbrados, todo tiende a la inmediatez, estamos en un delivery virtual de todo lo que necesitamos, y que sea ahora. Este avance tan rápido hace que el desarrollo de software crezca a pasos agigantados, y si comparamos la velocidad del software que usamos en nuestras computadoras o smartphones con los dispositivos de hace 20 años, veremos para lo que antes se necesitaba invertir miles o millones de dólares ahora está al alcance de nuestras manos: desde hablar por teléfono, realizar una videollamada, descargar una película en minutos, y hace relativamente poco le agreguemos la edición audiovisual. Todo avanza y esa tecnología fue llegando a las PCs e incluso a los celulares de la mano del aprendizaje de las máquinas de bajo costo o incluso gratuito, y llegamos al punto que cualquier persona con un poco de conocimiento puede hacer un video gracioso, o uno ofensivo, en muy poco tiempo.   Los filtros de Instagram, por ejemplo, reemplazan nuestros ojos, boca, nariz o cara completa de forma instantánea. Ya hay filtros incluso que reemplazan nuestra cara por otros rostros, más caricaturescos seguro, pero, ¿qué pasa si esos filtros siguen subiendo su calidad?   Los llamados deep fakes son videos que en sus comienzos eran en su mayoría pornográficos, reemplazando las caras de actrices porno por celebridades: Ema Watson, Gal Gadot, Emily Clarke y la lista sigue, basta con hacer una simple búsqueda en Internet y tendremos más de 500.000 resultados.   Si te avisan que el video que miras es un deepfake, tu percepción no es la misma que si no lo supieras, tus ojos ven algo muy real, pero tu cerebro sabe que no lo es.   Y así lo que se hizo conocido como una edición de videos porno, ahora se han volcado al terreno de las fake news, era algo que se esperaba sabiendo los intereses y fanatismo que mueve la política.   El software de inteligencia artificial necesita de mucha información para poder funcionar correctamente, toma puntos de referencia del rostro a replicar y los proyecta sobre otro que es el que hace el movimiento, replica esos puntos de referencia y con eso ya tenemos el primer tramo listo, luego vendrá una edición más fina de luces, sombras y detalles que se necesitan si se busca un video mas real. Es por eso que actores y políticos son presa fácil de este sistema.   Todo esto no significa que estamos indefensos ante la información falsa, el software todavía tiene sus fallas o detalles que podemos tener en cuenta para saber detectar un video real de uno falso (y es probable que si lees esta nota en unos meses ya este punto haya sido superado).   Estar atento a su parpadeo (deepfakes parpadean mucho menos que un humano), comparar su cara con su cuello, color de piel, proporciones, si el audio está bien sincronizado con sus labios, si el interior de la boca y dientes no es nítido son algunas pistas que podemos tener para su detección, así como también la duración del video, por lo general estos videos son de unos pocos segundos o minutos.   En la serie Years and Years la politóloga Vivienne Rook (maravillosamente interpretada por Emma Thompson) aprovecha un deepfake de su contrincante político a favor de su carrera política, a pesar que los ciudadanos saben que el video no es real, ella sabe como convencerlos de que su opositor está muy en línea con el contenido del video.   A medida que la tecnología avance, detectar un deepfake va a ser cada vez más complicado, leyes modernas es lo primero que se necesita para regularlos, la manipulación con fines políticos tiene graves consecuencias, sumar un elemento más como los videos (el formato que más credibilidad, interacción y distribución tiene en las rede sociales).   Esto no significa necesariamente que estemos ante el umbral del fin de la verdad. Como con cualquier avance tecnológico, tendremos que ser escépticos y más atentos, y que no sea sólo la inteligencia artificial la que mejore, sino también la nuestra.

elperiodico.com

Manga Barcelona 2019: "Sí, sóc friqui!"

2019-11-11

Les parcials declaracions del rei Felip VI sobre la violÚncia a Catalunya Josep Vilà Olesa de Montserrat En el seu discurs, amb motiu de l entrega dels premis de la Fundació Princesa de Girona, el rei Felip VI advertí que... Seguir leyendo La tristesa de la gent de la mà de la política Víctor López Sant Andreu de Llavaneres Darrerament sembla que tothom està trist. Si ets independentista, ho estàs perquÚ la sentÚncia és injusta... Seguir leyendo La difícil tarea de ser equidistante en Catalunya Inma Díaz Mataró Constantemente oímos que los catalanes quieren la autodeterminación , seguir formando parte del proyecto común que es España... Seguir leyendo ¿La policía, democrática? Xavi Ventalló Barcelona En diciembre de 1971, cuando tenía 15 años de edad, la policía nacional española, los grises, ... Seguir leyendo Manga Barcelona 2019: Sí, sóc friqui! Òscar Franco Barcelona El cap de setmana del 31 d octubre va tornar el Saló del Manga i la Fira de Montjuïc va omplir-se dels anomenats friquis... Seguir leyendo El fin de los me gusta en Instagram Paula Leiva Galiano Badalona Instagram ha anunciado que próximamente ya no se podrá visualizar la cantidad de me gusta  que tienen las publicaciones de lo... Seguir leyendo Un agradecimiento a la sanidad pública Ángela Idini Barcelona Empieza la Ã©poca de resfriados y malestares típicos y, como de costumbre, los centros sanitarios se llenan de pacientes... Seguir leyendo << Anterior

huffingtonpost.es

Cachondeo por un detalle en esta imagen de Pedro Sánchez votando: salta a la vista

2019-11-10

10/11/2019 15:25 CET | Actualizado Hace 18 minutos Cachondeo por un detalle en esta imagen de Pedro Sánchez votando: salta a la vista Se ha podido ver en el Canal 24 Horas de TVE. CANAL 24 HORAS DE TVE Pedro Sánchez votando Pedro Sánchez , candidato del PSOE a la presidencia del Gobierno, ha sido de los candidatos más tempraneros en votar en estas elecciones del 10-N y lo ha hecho en un colegio de Pozuelo de Alarcón (Madrid).  Todos los medios de comunicación han captado la estampa de Sánchez depositando su voto en la urna pero en Twitter se han fijado en un detalle.  La expresión de Sánchez era, como bien ha identificado la tuitera @TaboadaLucia , de “alegre pero no mucho”, en alusión al programa First Dates de Cuatro.  “Alegre, pero no mucho”. pic.twitter.com/2tvDg4Lm0w — Lucía Taboada (@TaboadaLucia) November 10, 2019 Una apreciación a la que se han sumado otros usuarios de esta red social con mucho sentido del humor:

es.gizmodo.com

El deepfake de Arnold Schwarzenegger en No Country for Old Men es tan bueno que te hará dudar de l

2019-11-10

Read more Advertisement Un ejemplo del poder de los deepfakes se puede encontrar en la película No Country for Old Men , o No es país para viejos en español, protagoniza por Javier Bardem en 2007. La película es uno de los puntos más celebrados en la carrera del actor, dado que recibió un premio Óscar por su actuación. No obstante, esta semana el canal de YouTube Ctrl Shift Face , que se dedica a crear deepfakes de entretenimiento, decidió hacer un deepfake de No Country for Old Men con un protagonista diferente: Arnold Schwarzenegger. Por lo tanto, el responsable del canal procedió a superponer la cara de Schwarzenegger sobre el cuerpo de Bardem. Además, contrató a un actor de voz para imitar a Schwarzenegger y doblar sobre el audio original. En pocas palabras: el resultado es alucinante. Para hacer el vídeo aún más creíble, Ctrl Shift Face añadió una frase clásica ligeramente adaptada: “Hasta la vista, friendo”. A continuación, pueden ver el vídeo con la cara de Schwarzenegger y el original con Bardem. Advertisement Arnold Schwarzenegger Javier Bardem Sin embargo, Ctrl Shift Face no paró con Schwarzenegger. También hizo deepfakes de la misma escena con otros actores de renombre: Willem Dafoe y Leonardo DiCaprio. La elección de Dafoe es interesante, ya que el actor ha interpretado a varios personajes inquietantes a lo largo de su carrera. De hecho, es justo eso que hace que el deepfake sea más creíble, porque uno de verdad se puede imaginar a Dafoe en el papel. Advertisement Willem Dafoe Leonardo DiCaprio Al final, la tecnología de deepfakes presenta una interesante oportunidad para el cine. Uno de los usos más asombrosos de la tecnología fue insertar a una joven Carrie Fisher en Rogue One. Por lo tanto, podría significar que nunca tengamos que decirle adiós a nuestros actores favoritos, algo que a la vez nos privaría de ver nuevo talento. Advertisement

elcorreodemadrid.com

Volvemos a unas nuevas elecciones, elecciones casi por año, esto ya es un cachondeo total. Por IvÃ

2019-11-10

Volvemos a unas nuevas elecciones, elecciones casi por año, esto ya es un cachondeo total. Por Iván Guerrero Vasallo  Escrito por Iván Guerrero Vasallo • 2019-11-10 05:30:00 • 1: 42 minutos Compartir en: Mail Pienso que se intenta dar forma poco a poco para reforzar el régimen liberal apoyándose en nuevos partidos que son, en general, más de lo mismo. Ojalá en realidad estuviéramos asistiendo a las últimas bocanadas de un régimen, (cosa que dudo), que ha traído más mal que bien a España. Y el debate a 5 o como lo quieran llamar, una desgraciada y patética representación de la clase política que tenemos. Un debate verdaderamente vergonzoso. Sin ideas en general y no digamos ideas en concreto de regenerar el país. Sinceramente, un país representado por esa gente es un país sin futuro. Además, ninguno de esos va a acabar con el verdadero problema de España, su corrompido régimen liberal. Porque, lo vuelvo a decir aquí, el verdadero problema de este país es el régimen liberal partitocrático del 78. En fin, lo dije otras veces y lo repito, cámaras ocupadas por lo que yo llamo grupos tribales , con corruptos e ineptos muchos de sus miembros. Miembros que parecen ya estar ajenos totalmente a los graves problemas que tiene España. Comunidades que parecen reinos de Taifas y con redes clientelares. Partidos que sólo atomizan el cuerpo social y que se han convertido en un gran negocio para los que quieren vivir del cuento en este país. Senados inútiles, economía e industria controlada en gran medida por la banca internacional. Sin ningún rumbo en política exterior, ¿cuando se resolverá el problema de Gibraltar y también el del Sahara Occidental, por ejemplo?, etc... Son necesarias grandes reformas sociales, controlar la inmigración ilegal, la abolición de las autonomías, reducción de políticos, desaparición de cámaras absurdas, nacionalización de los recursos básicos y de la banca. Pero, para empezar, necesitamos una democracia orgánica y una fuerte jefatura de Estado al frente del país. ¿Lo conseguiremos llevando un papel a una urna o se tendrá que hacer por otros medios?. Esa es la pregunta del millón para mi. También aprovecho para comentar aquí el oír mucho de que los problemas graves de este país vienen desde ZP, eso no es así, vienen de mucho antes, ZP sólo agravó los problemas de este país, como lo sigue haciendo el señor Pedro Sánchez actualmente. No seamos necios por favor, todas las fuerzas políticas de España con sus respectivos jefes de partido, que han apoyado y apoyan este régimen tiene su parte de culpa de la actual situación dramática española. Resumiendo. Volvemos a unas nuevas elecciones, elecciones que son casi por año, esto ya es un cachondeo total. Lo que se debería votar es el fin de este régimen nefasto.

elconfidencial.com

Primero los políticos ahora las empresas: el 'deepfake' supondrá pérdidas milmillonarias

2019-11-10

Estafas 2.0 Primero los políticos, ahora las empresas: los deepfakes supondrán pérdidas millonarias Algunos agentes del mercado ya han mostrado su preocupación sobre cómo los usuarios anónimos difunden deepfakes para destruir la reputación de empresas concretas Pedro Sánchez y Mark Zuckerberg. (Enrique Villarino) Autor Tiempo de lectura12 min 10/11/2019 05:00 Imagínense que el día antes de las elecciones sale a la luz un video donde uno de los principales candidatos a la presidencia está comentando en la intimidad que piensa utilizar las arcas del Estado para financiar grupos terroristas. Todo el mundo ve su cara y sabe que se trata de él, observa sus gestos y son los suyos, escucha su voz y es, sin duda, su tono. El problema es que no es él, se trata una falsificación perfecta creada digitalmente denominada deepfake . Sin duda esto podría alterar unos comicios como los del 10-N . Porque esto no es ciencia ficción, es realidad, y en Estados Unidos ya es tema de debate nacional y se está legislando al respecto. En Texas han estableci do leyes contra manipulaciones con deepfake que tengan por objetivo alterar las elecciones. El pasado 3 de octubre, California aprobó también una ley que prohibirá la publicación y distribución de vídeos manipulados durante el periodo de campaña electoral. Los deepfakes ya son un negocio millonario: cómo evitar que te engañen G.C. Una nueva investigación descubre que los vídeos de este tipo se han doblado en menos de un año y que es un negocio que ya mueve decenas de millones de euros Según informa Associated Press , este proyecto de ley salió adelante después de que se difundiera un video alterado de la presidenta de la Cámara de Representantes de los Estados Unidos, Nancy Pelosi. Este no es un caso aislado, ya existen cientos de videos falsos de políticos por las redes sociales: Obama , Trump , Sanders … Mark Zuckerberg habló sobre este tema durante el control del Congreso de los Estados Unidos y reconoció que no eliminarían estos videos de sus redes sociales, entre otros, uno de él mismo afirmando en un sombrío discurso que quien controla los datos robados de las personas controla el mundo . Fuera de la política este asunto ha comenzado a preocupar a otros sectores de la sociedad que ven en este fenómeno una amenaza real. Las empresas se encuentran entre los actores más vulnerables. La mayoría está en este momento desprotegidas ante estas falsificaciones, que pueden suponer pérdidas de miles de millones de euros por ello. Algunas ya lo han sufrido en sus propias carnes. El nuevo arma del cibercrimen El jefe llama y pide a un empelado que ingrese inmediatamente 220.000 euros en una cuenta para realizar una transferencia. Pretende hacer una adquisición importante y es ahora o nunca. Pero, esa llamada no era de ningún directivo, sino de alguien que había usado inteligencia artificial para reproducir exactamente su voz. “Las pymes del futuro que no cuenten con un experto en ciberseguridad morirán” J. E. Estar concienciados frente a la gravedad de las amenazas en la red o contar con expertos en tecnología son algunos elementos clave para prevenir ataques informáticos Esto es lo que le ocurrió a una energética británica. El delincuente usó como excusa una transferencia urgente a un proveedor húngaro para robar a la compañía. Su aseguradora, Euler Hermes Group, se ha negado a dar el nombre de la compañía afectada en el que ha sido el primer caso de la historia en el que se usa un deepfake para estafar a una empresa. Su existencia se hizo pública hace tan solo unos pocos meses. En el artículo de Wall Street Journal en el que desvelaron este incidente se deja en evidencia una realidad: los mercados podrían estar ante un cambio de paradigma del cibercrimen. Desde la Interpol califican como probable que los hackers comiencen a integrar esta nueva tecnología en sus fraudes de forma, cada vez, más masiva. Ciberseguridad: ¿cómo puedo proteger mi empresa de los ataques? EC Brands Es la nueva amenaza que nos está tocando vivir. Los riesgos de la ciberdelincuencia han pasado en pocas décadas de ser una rumorología más o menos Aunque este sea el primer caso público de estafa a empresas como tal, el cibercrimen ligado a este sistema de inteligencia artificial ya es una realidad. La legislación que se ha impulsado en Estados Unidos ha sido como respuesta a las acciones de los hackers que introducen la cara de personas anónimas en videos porno en internet. Tras esto se ponen en contacto con la víctima y le piden dinero a cambio de que no difundan ese contenido sexual falso entre sus conocidos y por toda la red. Los trolls , dueños de la reputación empresarial El peligro va más allá de los fraudes. Algunos agentes del mercado ya han mostrado su preocupación sobre cómo los usuarios anónimos, con el único incentivo de hacer daño, difunden deepfakes para destruir la reputación de una empresa concreta. El desprestigio y el menoscabo de su imagen que podría producir que se extiendan videos falsos de los principales CEO dando radicales discursos puede ser enorme. La agencia de calificación de riesgo Moody s ya se ha pronunciado al respecto en uno de sus últimos informes. En él afirma que esta posibilidad podría suponer costes millonarios en inversiones, patrocinios e incluso en caídas de las ventas. También explican que el problema fundamental es que las campañas de desinformación serán mucho más difíciles de desmentir e incluso, a veces, humanamente imposible . Por esta razón se requerirán nuevas técnicas de forensic o grandes avances, porque si estos bulos no se cortan al poco tiempo pueden ser tremendamente dañinos . Podría suponer costes millonarios en inversiones, patrocinios e incluso en caídas de las ventas Albert Vilariño, experto en Responsabilidad y Reputación Corporativa de Sustainalogy, coincide en que los peores augurios del informe podrían hacerse realidad a corto plazo y remarca el papel de las extorsiones en las enormes pérdidas económicas que puede suponer esto . Cree que el problema viene acentuado por una época de hiperliderazgos empresariales en la que se tiende a asimilar las actitudes y valores de los CEO con las compañías de forma más estrecha . También afirma que uno de los mayores impactos a la reputación podría verse reflejado en bolsa: Las cotizaciones suben o bajan en cuestión de minutos, especialmente, en la era de rapidez. Por eso, con un viral de este tipo estallará la polémica y el valor caerá. Sin embargo, para cuando se haya desmentido, los grupos de interés se habrán olvidado de ese foco . Gema Rabaneda, responsable de relaciones y reputación de AXA España también cree que la capacidad que tiene gente anónima de menoscabar la imagen de una empresa está en alza . La reputación no se gestiona a golpe de crisis. Aunque te hagan daño, trabajar día a día en dar una buena imagen y transparente minimiza el daño Rabaneda, aun reconociendo el poder de esta tecnología, puntualiza que lo que pueda significar esa falsificación depende de la credibilidad con la que uno parte . Explica que la reputación no se gestiona a golpe de crisis. Aunque te hagan daño, si trabajas día a día en dar una buena imagen con transparencia, confianza y responsabilidad social, puedes minimizar el daño . El problema está cuando el deepfake está muy bien hecho, no te extrañe del personaje en cuestión y encima se chequea . Redes neuronales antagónicas Óscar Corcho, catedrático en el departamento de Inteligencia Artificial de la Universidad Politécnica de Madrid , explica a este medio que, de forma sencilla, un deepfake es la aplicación de técnicas de inteligencia artificial para crear lo que antes llamábamos un collage , superponer una foto encima de otra con Photoshop y darle una apariencia real. Pero ¿qué ocurre? Que tal y como está de avanzada la tecnología ahora es muy difícil diferenciar si estos collages son reales o no. El experto indica que el método que se utiliza son las redes neuronales. Este tipo de procedimiento emula la estructura que tenemos nosotros en el cerebro y la conexión entre neuronas y los impulsos sinápticos, para simular nuestra forma de pensar , detalla Corcho. “En un par de años, la inteligencia artificial será como el aire que respiramos” Romina Vallés. Barcelona Los mayores expertos en marketing del mundo se dieron cita este martes y miércoles en el World Marketing & Sales Forum de Barcelona para analizar los grandes éxitos de las mejores compañías Dentro de esta técnica están las redes neuronales antagónicas, que consiste en poner dos redes neuronales en deep learning (aprendizaje profundo, de ahí lo de deepfake ) a que una se ponga a construir imágenes o vídeos y la otra es la que tiene que discernir si es real o es creado por una máquina . Este tipo de técnica emula la estructura que tenemos nosotros en el cerebro y la conexión entre neuronas para simular nuestra forma de pensar Realmente no todo el mundo puede hacer estas falsificaciones. El catedrático considera que ahora mismo, para hacer un deepfake se tiene que conocer muy bien este sistema. Se necesita mucha formación, por lo tanto, actualmente solo lo pueden hacer personas que hayan cursado un máster en inteligencia artificial, que estén especializados o doctorados en este área. Sin embargo, no descarta que en algún momento existan aplicaciones sencillas con las que cualquier persona pueda hacer desde casa estas falsificaciones. El padre de las redes neuronales: “La inteligencia artificial colonizará la galaxia” Cristina Sánchez El investigador sueña desde la adolescencia con crear un robot más inteligente que él. Este pionero del deep learning cree que no deberíamos tener miedo Aún no han llegado a España , plantea el experto, pero llegarán, puede que incluso no sepamos completamente si han llegado o no. A la velocidad que se transmiten las cosas en las redes no tiene sentido decir si ha llegado o no . Sobre legislar o no, piensa que hay un debate importante y que se aplica, en general, sobre cualquier sistema de inteligencia artificial. No descarto que en algún momento existan aplicaciones con las que cualquier persona pueda hacer desde casa estas falsificaciones No está tan claro si la regulación se tiene que hacer sobre los sistemas que se utilizan o si la regulación se debe hacer sobre el resultado de estos . En su opinión, se tiene que hacer sobre el resultado de los métodos. Si atentan contra el honor o dicen cosas falsas, la regulación existente cubriría a los afectados. Otra cosa es que el deepfake se utilice de forma satírica y en todo momento se emitan estos contenido dejando claro que es un contenido modificado. Las fake news del futuro ya están aquí: el programa que escribe como un humano Argemino Barro. Nueva York Las potenciales aplicaciones malignas del programa han sido consideradas tan preocupantes que sus responsables han decidido guardarlo en el cajón, al menos por ahora Al pedirle consejos para no ser engañados, explica que realmente no cree que exista ningún consejo técnico, porque los sistemas de inteligencia artificial están en un constante desarrollo acelerado. Estamos haciendo algo parecido al test de Turing. Creamos sistemas que puedan determinar si un vídeo lo ha hecho una máquina o no , afirma. La única opción es informarse de todo el contexto que hay alrededor , explica Corcho. Quién ha creado el vídeo, quién lo empezó a publicar, cómo se ha movido por las redes. En definitiva, qué tipo de información adicional podemos obtener alrededor del vídeo. Tarde o temprano el algoritmo va mejorando para que genere contenido más veraz, por lo que llegará un momento en que técnicamente no se puedan detectar anomalías . El padre de los deepfakes Si la película Fast and Furious 7 llegó estrenarse a pesar de que falleció uno de sus principales actores durante el rodaje fue gracias a Hao Li, que ideó la tecnología de creación facial que se usó para hacer una versión digital del actor. Se usó para pegar la cara de Paul Walker en los cuerpos de sus dos hermanos. Li es uno de los mayores expertos en vídeos ultrafalsificados. Nació en 1981 en Alemania y es hijo de inmigrantes taiwaneses. Actualmente, es profesor asociado de Ciencias de la Computación en la Universidad del Sur de California y piensa que el fenómeno deepfake ya es imparable. Hao Li uno de los mayores expertos en vídeos ultrafalsificados. (EmTech Asia) Li contribuyó con el desarrollo del software llamado Faceshift . Era un programa para crear avatares animados y otras figuras que capturan las expresiones faciales de una persona en tiempo real. En 2015, Apple adquirió esta compañía y su tecnología se está utilizando en sus teléfonos iPhone X. Primero los políticos, ahora las empresas: los deepfakes supondrán pérdidas millonarias Precisamente, su investigación se está usando para rastrear tumores en tiempo real. Este auge tecnológico ha permitido una masificación de la inteligencia artificial aplicada en la edición de imágenes avanzadas. Li actualmente colabora con el profesor de la Universidad de California en Berkeley y especialista en ciencia forense digital, Hany Fraid. Allí se encarga de fabricar deepfakes y su compañero los tiene que identificar. Carrera armamentista digital De hecho, Li, junto con otros compañeros, publicó este año una investigación titulada Protegiendo a los líderes mundiales contra los deepfakes . En el informe plantea que los avances recientes en el aprendizaje profundo han permitido que sea mucho más fácil crear videos falsos sofisticados y convincentes y plantea que cualquier persona promedio podría, por ejemplo, crear un video de un líder mundial confesando actividades ilegales que podrían conducir a una crisis institucional . Para la investigación utilizaron una herramienta con la que extraer los movimientos de rostro y la cabeza de los individuos. Por otro lado, también crearon sus propias deepfakes con Donald Trump, Barack Obama, Bernie Sanders, Elizabeth Warren y Hillary Clinton. How dangerous are Deepfakes? Prof. Hao Li explains how to prevent the technology from being used for malicious purposes. @HaoLi81 @USC pic.twitter.com/IbC2EDOezJ Mostrar más comentarios Normas de La Comunidad En Titania Compañía Editorial, S.L. creemos en la libertad de expresión y en la aportación de los lectores para crear y enriquecer el debate sobre los temas de actualidad que tratamos. Para promover y mantener ese ambiente de intercambio útil y libre de opiniones, hemos establecido un conjunto de normas sencillas que tienen como objetivo garantizar el desarrollo adecuado de esos debates. Su no cumplimiento supondrá la eliminación del comentario, o incluso la expulsión de La Comunidad en caso de actitudes reiteradas que desoigan avisos previos. No admitimos insultos, amenazas, menosprecios ni, en general, comportamientos que tiendan a menoscabar la dignidad de las personas, ya sean otros usuarios, periodistas de los distintos medios y canales de comunicación de la entidad editora o protagonistas de los contenidos. Tampoco permitimos publicaciones que puedan contravenir la ley o falten gravemente a la verdad probada (o no) judicialmente, como calumnias, o promuevan actitudes violentas, racistas o instiguen al odio contra alguna comunidad. No admitimos publicaciones reiteradas de enlaces a sitios concretos de forma interesada. Consideramos que no aportan nada al resto de los lectores y son prácticas que consideramos spam, ya que el espacio de los comentarios no puede servir como promoción de blogs personales u otros proyectos. Sí aceptamos cualquier clase de enlace que amplíe, puntualice o enriquezca la información sobre la que se debate, y que resulte por tanto útil para todos los lectores. No admitimos la publicación de datos personales sensibles (números de teléfono, direcciones postales, direcciones de correo u otros relacionados.) Entendemos que es información que puede provocar problemas a quien la publica o a terceros (no podemos saber a quién pertenecen esos datos). No admitimos que una misma persona tenga varias cuentas activas en esta comunidad. En caso de detectarlo, procederemos a deshabilitar todas. Nos reservamos el derecho de suspender la actividad de cualquier cuenta si consideramos que su actividad tiende a resultar molesta para el resto de usuarios y no permite el normal desarrollo de la conversación. Eso incluye el abuso de mayúsculas o comentarios ajenos al tema propuesto en cada contenido. Por lo demás, pedimos a nuestros usuarios que se comporten con los demás con el mismo respeto con el que quieren ser tratados igualmente. De esa manera La Comunidad seguirá siendo un espacio interesante en el que debatir y aprender. Agradecemos de antemano a todos nuestros lectores su esfuerzo y su aportación. email contacto moderador elconfidencial

elsoldepuebla.com.mx

¿Qué es el “deepfakes” y cómo afecta la imagen de las personas?

2019-11-09

/ sábado 9 de noviembre de 2019 ¿Qué es el “deepfakes” y cómo afecta la imagen de las personas?  Danielle Citron, integrante del Consejo de Confianza y Seguridad de Twitter explicó este fenómenos en la Ciudad de las Ideas Foto: Maricarmen Hernández | El Sol de Puebla Maricarmen Hernández | El Sol de Puebla Las “deepfakes” es una tendencia en redes sociales que cada vez se hace más común y que consiste en crear desnudos hiperrealistas hasta escenas de pornografía protagonizadas principalmente por mujeres, cuya imagen, es utilizada sin su consentimiento, así lo explicó Danielle Citron durante su participación en el segundo día de actividades de la Ciudad de las Ideas. Citron, integrante del Consejo de Confianza y Seguridad de Twitter, durante su conferencia detalló que los vídeos sexuales creados con deepfake son elaborados con el rostro de una persona pero el cuerpo no es el suyo, lo que conlleva a que su experiencia online empeore, incluso dijo, puede dificultar sus relaciones sociales o encontrar un trabajo. Estas acciones en redes sociales, precisó, tienen su origen con el fin de hostigar y desacreditar a las personas, en la mayoría de los casos a mujeres, lo que se vuelve “degradante, vergonzosos y aterrador para la víctima del deepfake”. El problema, abundó, se agudiza con la réplica de estos videos e imágenes que los usuarios hacen sin medir el alcance de esta situación.

huffingtonpost.es

Cachondeo con la felicitación de Kiko Rivera a su hermana Isa Pantoja: "La peor de la historia"

2019-11-09

09/11/2019 15:26 CET | Actualizado Hace 22 minutos Cachondeo con la felicitación de Kiko Rivera a su hermana Isa Pantoja: La peor de la historia He visto declaraciones de guerra más cariñosas , han ironizado en redes. GTRES Kiko Rivera Kiko Rivera , dj e hijo de la tonadillera Isabel Pantoja , ha felicitado a su manera a su hermana, Isa Pantoja , a través de su cuenta de Instagram .  Lo ha hecho con un texto en el que se sincera respecto a su hermana, con la que no mantiene precisamente una buena relación.  Esto es lo que escribió este viernes Rivera:  “No sabes lo que significa la palabra familia,tampoco has querido entenderlo. Aun así siempre fuiste mi ojito derecho. No nos hablamos y no creo que lo haga ya que me has fallado en lo más profundo de mi . Pero como cada año tengo que felicitarte en el día de tu cumpleaños”. A post shared by Kiko Rivera (@riverakiko) on Nov 8, 2019 at 1:16pm PST Una felicitación muy comentada en las redes sociales, donde han llegado a calificarla como “la peor de la historia”.  La peor felicitación de cumpleaños de la historia pic.twitter.com/akdCyUQRVH

huffingtonpost.es

Cachondeo con la felicitación de Kiko Rivera a su hermana Isa Pantoja: â??La peor de la historiaâ?

2019-11-09

09/11/2019 15:26 CET | Actualizado Hace 25 minutos Cachondeo con la felicitación de Kiko Rivera a su hermana Isa Pantoja: La peor de la historia He visto declaraciones de guerra más cariñosas , han ironizado en redes. GTRES Kiko Rivera Kiko Rivera , dj e hijo de la tonadillera Isabel Pantoja , ha felicitado a su manera a su hermana, Isa Pantoja , a través de su cuenta de Instagram .  Lo ha hecho con un texto en el que se sincera respecto a su hermana, con la que no mantiene precisamente una buena relación.  Esto es lo que escribió este viernes Rivera:  “No sabes lo que significa la palabra familia,tampoco has querido entenderlo. Aun así siempre fuiste mi ojito derecho. No nos hablamos y no creo que lo haga ya que me has fallado en lo más profundo de mi . Pero como cada año tengo que felicitarte en el día de tu cumpleaños”. A post shared by Kiko Rivera (@riverakiko) on Nov 8, 2019 at 1:16pm PST Una felicitación muy comentada en las redes sociales, donde han llegado a calificarla como “la peor de la historia”.  La peor felicitación de cumpleaños de la historia pic.twitter.com/akdCyUQRVH

es.vida-estilo.yahoo.com

Cachondeo con la felicitación de Kiko Rivera a su hermana Isa Pantoja: "La peor de la historia"

2019-11-09

Cachondeo con la felicitación de Kiko Rivera a su hermana Isa Pantoja: La peor de la historia Pablo Machuca 1 / 9 Cachondeo con la felicitación de Kiko Rivera a su hermana Isa Pantoja: La peor de la historia Kiko Rivera Más Kiko Rivera , dj e hijo de la tonadillera Isabel Pantoja , ha felicitado a su manera a su hermana, Isa Pantoja , a través de su cuenta de Instagram .  Lo ha hecho con un texto en el que se sincera respecto a su hermana, con la que no mantiene precisamente una buena relación.  Esto es lo que escribió este viernes Rivera:  “No sabes lo que significa la palabra familia,tampoco has querido entenderlo. Aun así siempre fuiste mi ojito derecho. No nos hablamos y no creo que lo haga ya que me has fallado en lo más profundo de mi . Pero como cada año tengo que felicitarte en el día de tu cumpleaños”. Una felicitación muy comentada en las redes sociales, donde han llegado a calificarla como “la peor de la historia”.  La peor felicitación de cumpleaños de la historia pic.twitter.com/akdCyUQRVH

diariodejerez.es

El cachondeo inteligente madura

2019-11-09

El cachondeo inteligente madura Comentarios 0 09 Noviembre, 2019 - 01:39h La absurdez también podría ser un género cinematográfico. De hecho, Joaquín Reyes y Ernesto Sevilla se dirigen, sin freno y con un bagaje ya extenso y brillante en televisión, hacia ese propósito: el de una película. Entretanto los vemos en pantalla grande, el dúo de cómicos más inteligente de nuestro país muestra su madurez en la segunda temporada de Capítulo 0, serie que acaba de regresar a Movistar+. Parecía imposible superar la primera tanda de capítulos, pero lo han conseguido. Con ocho nuevos episodios autoconclusivos, llenos de referencias a películas, guiños a la comedia absurda que ha lanzado a estos humoristas manchegos a la fama y -por qué no decirlo- más dinerete, Capítulo 0 es un ejercicio de autosuperación pues, superado el miedo al nuevo formato, los creadores crecen tanto en la producción como en la elaboración de guiones. La mejor serie de la televisión nacional del año vuelve a ser chanante. Las nuevas historias traen héroes de culebrón, espías de la guerra fría, perros que hablan fenomenal, vidas cruzadas por un terremoto, mujeres con problemas documentados, zapatiestas en platós de televisión, o vidas ejemplares del todo inesperadas con una dosis extra de azúcar glass. Esta segunda entrega, además, cuenta con un nutrido reparto de escuderos habituales de Reyes y Sevilla entre protagonistas, secundarios y cameos: Paco León, David Broncano, Pablo Motos (productor en la sombra con 7 y acción), Miren Ibarguren, Verónica Forqué, Hugo Silva, Arturo Valls, Javier Botet, Ingrid García-Jonsson y Adriana Torrebejano, entre otros, se suman a una puesta en escena demencial, dentro de la cordura de este cachondeo tan inteligente y loco a la vez. La vuelta de Capítulo 0 se muestra a sus incondicionales, como siempre en un canal para minorías entendidas (podría decirse que en frasco pequeño, como todo lo de calidad), con capítulos de 25 minutos cocinados a fuego lento, con un estilo más cinematográfico si cabe (y mira que les gusta ser cinematográficos) y más reflexivos que nunca, pero con el mismo surrealismo de siempre. Con sendas parodias a títulos como Bohemian Rhapsody y Man On The Moon, el primer capítulo es un falso biopic de Joaquín Reyes, el director de la saga, más cómodo que nunca detrás de las cámaras. Sólo apto para fans de los chanantes, quizás a los que no han seguido a los de Albacete les resulte difícil comprenderlo. El cómico, tras una vida de éxitos, se dispone a dar un último banquete en el que se produce un flahsback hacia su infancia de niño incomprendido y su crápula juventud de descenso a los infiernos. Todo ello compone un juego tronchante y bien ejecutado que deja en el paladar las ganas de seguir viendo más.