Entrevistas

Manuel Alfonseca: «Una ciencia está muerta si cada vez tiene más ideas para el futuro, pero menos descubrimientos en el presente»

Manuel Alfonseca ha sido testigo del surgimiento de la era de la informática desde una posición privilegiada. Catedrático por la Universidad Autónoma de Madrid, este Ingeniero de Telecomunicaciones y licenciado en Informática lleva desde principios de los años setenta ligado tanto a la empresa privada (IBM), como al ámbito académico en distintas universidades. El saber acumulado y la perspectiva que dan los años le permite hablar con conocimiento de causa y desmontar el discurso imperante en torno a cuestiones como la inteligencia artificial, el papel de las nuevas tecnologías en la sociedad o el futuro de la educación en el ámbito de las ciencias. Por si fuera poco, todavía le queda tiempo para dedicarse a la divulgación a través de su blog y escribir un buen puñado de novelas de ciencia ficción, otra de sus pasiones.

Leyendo su currículum, que es realmente impresionante (no solo en temas de investigación, también en divulgación e incluso en escritura de novelas), uno se pregunta de dónde saca tiempo para tantas cosas. Y me venía a la cabeza un concepto que es el de intelectual de ciencias, algo realmente que no abunda mucho o al que no estamos muy acostumbrados, ya que siempre que pensamos en intelectuales lo hacemos, sobre todo en España, que es una sociedad muy de letras, en gente de letras. ¿Cree usted que actualmente carecemos de voces autorizadas en el ámbito de las ciencias que sean capaces de conectar la investigación y la ciencia con el público común y que sea capaz de generar debates y abrir temas?

Yo creo que sí que hay gente en España y fuera que son científicos y al mismo tiempo pueden contactar con la gente. Se me ocurren algunos nombres como Francisco Soler, que es doctor en Filosofía de la ciencia, Sánchez Cañizares… Creo que podríamos sacar una buena lista. No digo que no ocurra, pero no estoy de acuerdo con la cuestión de que las ciencias sean consideradas incompatibles con las letras. No debería ocurrir. En mi caso particular es curioso, porque cuando estaba en el colegio, de adolescente, nos hicieron un test psicotécnico y el resultado final que me dieron es que podía ir a ciencias o a letras.

¿Y por qué cree que los intelectuales de ciencias no tienen tanta visibilidad pública o reconocimiento?

Bueno, porque los medios de comunicación tienen muchos profesionales, algunos muy buenos, pero que en general cuando ponen titulares y esas cosas suelen meter la pata bastante, como he dicho en mi blog en varios artículos. Y esos son los que tienen la primera fila, los que están más cerca del público; y si las noticias que dan son incorrectas hace mal efecto. Por ejemplo: recuerdo que escribí a La Vanguardia porque una noticia científica estaba mal: decía «si estallara una Supernova dentro del Sistema solar…». Bueno, si eso pasase nosotros no estaríamos aquí. Al día siguiente pusieron una fe de erratas: donde decíamos tal, queríamos decir esto otro. Y también estaba mal (risas).

Usted se licencia en Telecomunicaciones en el año 1971 y en 1976 en Informática. Esto hace que haya asistido en primera línea a toda la explosión de la informática de consumo, el desarrollo de los ordenadores personales y la revolución de Internet. ¿Cómo lo ha vivido desde su platea privilegiada?

Cuando yo empecé con una beca de IBM en el centro de cálculo de la Universidad de Madrid, hoy Complutense, empecé ya a trabajar con ordenadores. Lo que había ahí era un ordenador de segunda generación: un 7090 de IBM que nos había cedido a la Universidad. Cada día había que perforar las tarjetas del programa y entregarlas en una ventanilla. Al día siguiente recibías los resultados: si decía que había habido un error en la línea tal, tenías que cambiar la tarjeta y volver a empezar. Y todo así. El ritmo era de aproximadamente una corrección de un error por día. No había otra forma de hacerlo. Eso es más o menos el principio de la informática en España. IBM había llegado diez años antes, pero cuando cedió un ordenador a la Universidad fue cuando en realidad empezó a moverse la cosa de la informática dentro la universidad española. En mi caso, me pusieron en la escuela de Telecomunicación a dar una clase. Me dijeron: ya que estás aquí y ya que sabes algo de esto, da una clase de introducción a la Informática. O sea, que estoy desde el principio.

Internet despega a partir de los años noventa, sobre todo desde 1995, pero yo ya venía usando el correo electrónico desde principios de los ochenta. Dentro de IBM teníamos un correo electrónico propio y después, fuera de IBM, empecé también a colaborar con una red universitaria que montó la propia IBM: donde las distintas universidades se comunicaban entre sí. Teníamos correo electrónico, listas de discusión… donde, por cierto, protagonicé discusiones curiosas, como la que tuve con Marvin Minsky, uno de los peces gordos de la inteligencia artificial.

Según avanza la tecnología, los cambios se aceleran. Viendo ahora cuál es el papel de la tecnología, ¿diría que su peso es mucho mayor a día de hoy o, en realidad, siempre tendemos a pensar que en ahora somos más tecnológicos que nunca?

Evidentemente, lo que dices es verdad: siempre hemos tenido la tecnología presente. Pero también es verdad que hay aceleración y aumento. Sin embargo, tenemos que distinguir una cosa: los algoritmos que se emplean y con qué se emplean. La inteligencia artificial hoy día, y la informática en general (porque muchas de la cosas que se llaman IA en la prensa no lo son, son pura informática), funciona con algoritmos que se usaban ya hace treinta o cuarenta años. No ha habido ninguna mejoría, ningún avance importante. Sí avances pequeños, ajustes. Lo que ocurre es que esos mismos algoritmos ahora los usamos con muchos más datos y con ordenadores mucho más rápidos. Y cuando trabajas con más datos, automáticamente, obtienes resultados mejores. La traducción automática, por ejemplo, se hace así: a base de tener una cantidad de datos enormes en Internet y acceso a todos; y de ahí puedes sacar unas traducciones relativamente correctas. Pero el procedimiento es el mismo que se hacía hace treinta o cuarenta años y con el que salían unas traducciones de risa porque tenías menos datos. Sigue pasando ahora: yo probé hace un tiempo en el traductor de Google con un texto en latín y el resultado era ridículo. ¿Qué ocurre? Que en Internet hay muy poco texto en latín y no tenía datos suficientes.

En muchos artículos se muestras escéptico con la Ley de Moore, que por ejemplo cuando yo estudiaba la carrera era casi como un mantra. Usted habla de cierta ralentización. ¿Es posible que estemos ahora viendo cierta decadencia científica o que vayamos a entrar en una época de estabilización?

Más que decadencia, lo que sucede es que el aumento que había se está frenando un poco. Sigue aumentando todavía, pero más despacio. La Ley de Moore se puede aplicar a muchas cosas, como la velocidad de la CPU, al empaquetamiento de bits dentro del hardware… etcétera. Hay cuatro o cinco términos distintos y en algunos de ellos ya se ha detenido. Por ejemplo, en la aceleración de la velocidad de base de los chips; lo que pasa que usan el truco de poner varios chips a la vez para poder decir que la Ley de Moore sigue funcionando. Pero la velocidad de cada uno de ellos es, prácticamente, la misma que había hace quince años. O el empaquetamiento de bits dentro de las memorias, que ha durado un poco más pero en el que ya se empiezan a ver síntomas de ralentización; y además es lógico, porque tiene que haber límites físicos: no puedes meter un bit en menos de un átomo. En algunos empaquetamientos ya se ha llegado a cincuenta átomos por bit; tiene que notarse el frenado del aumento y dentro de pocos años debería pararse. De hecho, el mismo Moore lo dijo en el año 2005 en una conferencia en la academia de IBM llamada Los aumentos exponenciales no duran siempre; es decir, que estaba hablando en contra de su propia ley. Allí hizo la predicción de que en quince años como mucho (es decir, el pasado 2020) se habría parado ya su ley. En unos casos se ha parado ya y en otros todavía no, pero de media estamos acercándonos. A lo mejor en vez de en quince años es en treinta, pero la cuestión es que esas predicciones de que como estamos en un crecimiento exponencial vamos al infinito, son absurdas. Porque no hay procesos exponenciales indefinidos en la naturaleza; no puede haberlos.

Sin embargo, parece que es un poco la idea que se trata de vender: una especie de aceleración permanente y que funciona, además, casi como un mantra mental; cada vez tenemos que ir más rápido y todo tiene que ser más pequeño, más compacto y más rápido. Y las grandes compañías venden un poco esto. ¿Quizá es porque se instalaron en este optimismo tecnológico que hubo entre finales de los noventa y principios de los 2000, en el que estas compañías parecía que venían a salvar la sociedad?

También estamos desde hace bastante tiempo con la idea del crecimiento económico permanente, que es igual de absurdo que el otro. Uno de mis recientes artículos en el blog lo dice: si hubiese un crecimiento anual acumulativo del 2%, que se considera bueno en economía, en trescientos años necesitaríamos quinientas mil veces más energía de la que necesitamos ahora. ¿Y cómo va a aguantar eso la Tierra? Pues con la tecnología pasa lo mismo. El crecimiento tecnológico permanente y exponencial es insostenible. Todas esas teorías basadas en el crecimiento indefinido que llevan al transhumanismo son absurdos. Y además, es curioso, porque quien ha inventado el transhumanismo es un filósofo y no un técnico: Nick Bostrom, un profesor de filosofía de la Universidad de Oxford. Luego se han apuntado algunos, como por ejemplo Ray Kurzweil, al que consideran un gurú de la Inteligencia artificial porque lleva treinta años anunciando que la IA fuerte, o sea la de verdad, es inminente: en el 89 la anunció para el 2000; en el 99 para el 2010; y ahora lo está anunciando para el 2040 o 2050. Es lo que yo llamo el efecto horizonte: que a medida que te acercas a algo que se está prediciendo, entonces este algo se aleja.

¿Cree que detrás de todas estas predicciones hay una necesidad de preparar el camino para determinados productos de consumo que podrían plantear una serie de problemas o reticencias para ser aceptados por parte de la población? ¿Necesitamos ir previamente dibujándolos por el imaginario cultural popular para luego aceptarlos más fácilmente? Se me ocurre, como señala Shoshana Zuboff en La era del capitalismo de vigilancia, la manera en la que Google introduce estos avances y cómo consigue, poco a poco, que los aceptemos como algo normal. Véase Google Maps o el propio monopolio que tiene Google sobre el acceso a la información.

Sí. Es crear necesidades en la gente. Pero a veces no les sale bien. Por ejemplo: la realidad virtual no ha funcionado, pese a que hace veinte años aseguraban que lo iba a invadir todo. La gente no lo ha querido. Y ahora mismo está ocurriendo un poco lo mismo con el Internet of Things, es decir, el Internet en casa: que todos los aparatos estén conectados y que, si por ejemplo se queda vacío donde guardas los huevos en el refrigerador, se mande un mensaje a los distribuidores y te envíen a casa una nueva remesa. Pese a las reiteradas predicciones y el efecto horizonte, no sale. ¿Por qué? Yo creo que porque la gente no quiere y no lo necesita. El Internet of Things tiene utilidad en un entorno distinto, como el de la empresa, pero no en una casa. Lo que ocurre es que todos estos que hacen predicciones las hacen de acuerdo a cómo les gustaría a ellos que fueran las cosas, pero luego se enfrentan con que el público no quiere lo mismo. Sin embargo, la explosión de los teléfonos móviles no estaba prevista; solamente la previó Arthur C. Clarke, el escritor de ciencia ficción que era ingeniero de telecomunicaciones y que la situó en los años ochenta, momento en el que efectivamente empezaron a funcionar.

Sin embargo, pese a fallar muchas de estas predicciones, hay otras que consiguen esa permeabilidad entre el ámbito de la empresa o militar, hasta el privado. ¿Cuáles son los mecanismos a través de los cuales esas necesidades son capaces de transferirse desde un ámbito profesional y con un coste de producción muy elevado hasta la condición de bien de consumo? ¿Hay algo que articule que un avance tecnológico sea capaz de expandirse?

Hay distintos procedimientos para que esto suceda. El caso del ámbito militar que comentas es lo que ha ocurrido con los teléfonos móviles o con Internet; la primera aplicación de Internet fue el proyecto ARPANET, del ministerio de Defensa de los Estados Unidos; luego esa tecnología ahí desarrollada se aplicó a los ordenadores de empresas. Pero hay otros procedimientos: por ejemplo, llevábamos sesenta años intentando poner en marcha la traducción automática y ha salido adelante con una empresa como Google, que tiene simplemente un buscador muy bueno y que es capaz de trabajar con millones de datos en Internet. O, sin ir más lejos, el cinematógrafo, que no pasó por los militares en ningún momento y que fue inventado en varios países a la vez. La tecnología es como la evolución biológica: no se sabe dónde va a dar el siguiente paso, a veces es en varios sitios a la vez y el procedimiento por el que alguien llega a dominarla es como la selección natural. El resto desaparecen.

¿Puede ser que el peso comercial y de marketing de una empresa sea uno de esos factores fundamentales para el desarrollo de una tecnología?

Por supuesto. Es uno de los factores más importantes, porque hay mucha propaganda y la propaganda hace mucho efecto en la gente. De hecho, hay un escritor de ciencia ficción del siglo pasado, Frederik Pohl, que tiene un montón de novelas sobre el futuro pero basadas en eso, en la importancia de la propaganda y la publicidad. Pero esto tiene sus límites. Por ejemplo, la gente que era adicta al I-pod. Eran jóvenes y hay que ver qué hacen ahora. Y el caso de las gafas de Google lo veo aún más difícil.

Tendré que preguntarle dentro de unos años (risas)…

Fíjate, el teléfono móvil comenzó a moverse con ganas a finales del siglo XX, pero no entró de lleno hasta unos diez años después. Sobre el 2008, con los smartphone. Y, sin embargo, hay mucha gente que se ha mantenido con los móviles antiguos. Es una cuestión que está también relacionada con la edad. Supongo que a medida que va pasando el tiempo aumentará la edad de la gente que conoce estos dispositivos. Pero tampoco me fío mucho de las ideas de algunos que decían que hay niños que nacieron a partir de los años noventa y que ya son tecnológicos innatos porque han aprendido desde bebés a funcionar de esta manera. La verdad es que saben utilizar bien los teléfonos móviles y demás, pero no veo que hagan gran cosa. Es decir, ahora mismo la educación va peor que nunca y ya se ha visto que están intentando hacer que con todas las asignaturas suspensas se pase de curso, lo cual me parece una barbaridad. Lo que van a conseguir al final es igualar a todos por abajo y que el más listo sea el más tonto. Es decir, que no sepa nada. Y si los más jóvenes no saben nada… ¿Para qué les sirve poder usar juegos en su teléfono móvil?

Es un tema muy interesantes el de los llamados nativos digitales, nacidos en los noventa y ahora la generación z, nacidos a partir del 2000. Yo lo he visto de primera mano practicando la enseñanza. Sin embargo, parece que se haya dejado un poco de lado lo que es el verdadero aprendizaje de las nuevas tecnologías, que sería más en áreas como en programación, que además están directamente relacionadas con las matemáticas.

Sí, ahora mismo los jóvenes no saben programar. No tienen ni idea. Y hablando de eso, que es una noticia actual: en el nuevo proyecto de ley de universidades que quiere sacar este señor con el que estuve yo en una conferencia debatiendo conjuntamente, el ministro Manual Castells (que, por cierto, es de letras, sociólogo) está sosteniendo que hay que quitar los libros de la universidad porque lo que tienen que hacer los estudiantes es búsquedas en Internet. Y yo, la verdad, lo que veo es a mucha gente que no esta acostumbrada a hacer búsquedas en Internet y que se pierde; porque para buscar una cosa tienes que saber qué preguntar y si no lo sabes no puedes encontrar la respuesta. Y con los libros, quizá no mucho, pero algo se aprendía. Pero si le quitamos a los jóvenes esta forma de estudiar y les ponemos con una herramienta como internet, donde no saben cómo usarla, es ir a la catástrofe.

Y hay que tener en cuenta que cada nuevo plan de educación es peor que el anterior, por definición. Y da igual de qué partido sea. Es mi experiencia desde los años cincuenta. Así que hay que ver cómo vamos a mantener un aumento tecnológico razonable si los tecnólogos que van a trabajar en ello cada vez saben menos.

¿Puede que tenga que ver con un descrédito de la enseñanza de las matemáticas también?

La enseñanza de las matemáticas ha estado en descrédito siempre. Hay mucha gente que las odia y que no las conoce en absoluto. Pero de todas maneras, al mismo tiempo que había planes de estudio completamente ridículos y cada vez menos exigentes, por otro lado se han ido aumentando las materias. Por ejemplo, cosas que yo estudiaba en el curso preuniversitario ahora se estudian en el paso de la secundaria a bachillerato. Y eso puede tener sentido en algunas cosas que se van convirtiendo en básicas y hay que estudiarlas antes, pero la verdad, yo no sé si la teoría de matrices es una cosa que realmente haga falta que la sepa todo el mundo.

El tema de la enseñanza entronca un poco con el comienzo de nuestra conversación: de esta necesidad de cierto prestigio por la ciencia y de recuperar el valor de ese prestigio y aplicarlo a la enseñanza. Y por hilarlo con lo que veníamos hablando: parece que la tecnología se ha convertido solo en una cuestión de consumo y, sin embargo, los grandes avances científicos y tecnológicos no se dan en ese nivel, si no a nivel académico, de investigación.

Y la investigación básica está totalmente abandonada. Y sin ella los avances futuros se ponen en peligro. En alguno de mis artículos lo he mencionado: he estado haciendo estadísticas de lo que se publica en las revistas de alta divulgación científica y he ido anotando que entre los años noventa y la actualidad ha ido creciendo enormemente y de forma sistemática el número de noticias que no son verdaderos descubrimientos, sino ideas de que podría descubrirse algo en el futuro. Una ciencia que cada vez tiene más ideas para algo que se podría descubrir en el futuro pero que cada vez tiene menos descubrimientos en el presente, es una ciencia que va a pararse.

Supongo que tiene que ver un poco con la figura de los gurús, con esa gente que se dedica a ser una voz autorizada no se sabe muy bien por qué, por lanzar ideas y parecer que abren puertas.

Claro. Y como decías antes, las aplicaciones tecnológicas cada vez están más dominadas por el consumo, lo que nos lleva a que llegará un momento en el que no harán cosas porque sean importantes o interesantes sino porque venden, que es un concepto completamente diferente. De hecho, es un concepto anticientífico.

Usted categoriza entre inteligencia artificial débil y fuerte. Y parece que de lo que más se habla hoy en día es de los avances relacionados con la primera y más concretamente con algunas disciplinas como el reconocimiento facial o el aprendizaje automático. ¿Cree que la preponderancia de este tipo de avances en la inteligencia artificial, basadas sobre todo en los los algoritmos de toma de decisiones, significan que estemos eludiendo en todos los niveles más responsabilidades?¿Estamos poniendo la toma de decisiones en manos de máquinas?

Bueno, ha habido experimentos incluso en los que se ha intentado utilizar programas de ordenador para cuestiones legales y las conclusiones han sido negativas. Claro, la inteligencia artificial no es la del programa, sino la del programador. Y se ha detectado que los prejuicios del programador pasaban a su programa, habiendo programas de ayuda a jueces que consideraban más probable que una persona fuese un delincuente si era negro que si era blanco. Y cosas así. Por otro lado, también se hicieron estudios cuantitativos, como en Nueva York, para decidir las personas que pudiesen recibir la libertad condicional, y la máquina proporcionaba resultados mucho más negativos que los decididos por un ser humano. Es decir, que utilizar programas para sustituir las decisiones humanas es muy peligroso. Supongo que con asuntos como ordenar los pedidos de Amazon funcione muy bien, pero con cosas más series como decidir quién va a la cárcel es muy peligroso. Yo creo que en la situación actual la inteligencia artificial no permite que todas las actividades humanas dependan de las tomas de decisiones por ordenador.

Respecto a la inteligencia artificial fuerte, se muestra escéptico en sus artículos con el concepto de la singularidad tecnológica, de la capacidad de una máquina de tomar conciencia sobre sí misma. Usted demanda como lo más necesario que una máquina fuese capaz de desarrollar sentido común. ¿Cuáles serían los obstáculos que tendríamos que salvar para conseguirlo?

El sentido común sería un primer paso, pero un programa con él no sería todavía inteligencia artificial fuerte. Eso lo sería un programa consciente. Y desde el momento que no sabemos qué es la consciencia, no tenemos ni idea de cómo sería un programa así. De hecho, los que piensan que la inteligencia artificial fuerte está a punto de llegar no tienen ni idea de informática o de inteligencia artificial débil. Hicieron una encuesta hace dos o tres años en Estados Unidos a expertos en IA y se les preguntó cuánto tiempo pasaría hasta tener inteligencia artificial fuerte, si es que llegamos a tenerla. Y lo que salió fue una media de doscientos años, cuando en la prensa están continuamente aireando que la cuestión es inmediata.

Las personas ganamos el sentido común en esos treinta años que estamos madurando a base de recibir información de todas partes, en todas nuestras relaciones, con lecturas, televisión y toda clase de cosas. Y ahí vamos formando una idea de cómo es el mundo. Pero los programas no tienen ni idea de eso. Hay errores típicos que cometen incluso los programas tan modernos como los de traducción y que son por no tener sentido común. Casos, por ejemplo, en los que a la hora de elegir entre varias palabras lo hacen por la que ni tiene ningún sentido. Y se debe a que los algoritmos no tienen sentido común. Yo creo que vamos a tener programas que parece que tienen sentido común, que lo simulan y que lo harán cada vez mejor, pero que no lo tienen.

Y para ir terminando, refiriéndome a su condición de autor de ciencia ficción…

Como autor sí que creo en la inteligencia artificial fuerte (risas).

Si una máquina consiguiese esa singularidad tecnológica y desarrollase conciencia de sí misma, ¿esa máquina decidiría que los seres humanos somos totalmente prescindibles y borrarnos de la faz de la Tierra? O, por el contrario, ¿decidiría echarle un cable a esta pobre forma de vida basada en el carbono?

Esa pregunta podríamos cambiarla por una inteligencia extraterrestre en caso de que llegáramos a tener un contacto con ella. Pero no tengo ni idea de la respuesta, al igual que tampoco la tengo para saber cómo pensarían los extraterrestres.

No lo considera una amenaza para la humanidad.

Sí, podría ser. Publiqué en enero pasado, junto a otros cinco colegas, un artículo donde demostramos que la primera ley de Asimov es imposible de implementar: «un robot no puede lastimar a un ser humano ni permitir que un ser humano salga dañado por su inacción». Hemos demostrado matemáticamente que es imposible de implementar reduciendo la ley al problema de la parada de la máquina de Turing, que sabemos que no se puede resolver. Por lo tanto, el otro problema tampoco. La cuestión principal es que no hay manera de decidir qué es lo que causa daño a un ser humano.

Podría suceder, incluso, que la máquina estuviese haciendo daño al ser humano sin ser consciente de que lo está haciendo.

Claro. De hecho, es que un ser humano podría causar daño a otro ser humano sin ser consciente de ello. Y en nuestro caso no ponemos en duda la inteligencia (risas).

Y por último: como devoradores del género de la ciencia ficción que somos en la revista, le pido una recomendación de una obra que considere que a día de hoy explica bastante bien las dinámicas de la sociedad y el mundo en el que vivimos; que pueda dar una idea de hacia dónde nos dirigimos.

Es muy difícil de decir. Pero mira, Asimov formuló a su vez tres leyes para la buena ciencia ficción. Una de ellas decía que era más importante predecir los efectos sociales de un avance tecnológico que no la descripción del avance tecnológico. O sea, más importante que predecir el coche es predecir el problema del aparcamiento. El ejemplo que usaba era un cuento de Robert A. Heinlein, Solución insatisfactoria, donde prevé, allá por los años treinta, el efecto del descubrimiento de la bomba atómica y el equilibrio nuclear entre las dos grandes potencias. Es decir, una predicción del efecto social del descubrimiento siendo más importante que la predicción del propio descubrimiento. La mayoría de la ciencia ficción se ha ido por los viajes a las estrellas y cosas de esas que es posible que, de acuerdo a la paradoja de Fermi, no podamos hacer nunca. Teóricamente podría ser que fuera posible viajar a las estrellas, pero es muy difícil. Y desde luego, nosotros dos no lo vamos a ver. De hecho, dudo que veamos un viaje a Marte. Una de las predicciones que se suelen hacer es que vamos a un gobierno mundial y en mis novelas de ciencia ficción sobre el futuro, donde hay gobierno mundial, siempre es el malo. Yo creo que sería contraproducente; demasiado poder en manos de muy pocos. Cito a unos de mis personajes: el gobierno mundial no traería la paz, lo que pasa es que entonces todas las guerras serían civiles, que son las peores de todas.

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada.

Botón volver arriba