log2

 

En este apartado podrás encontrar palabras que están relacionadas directamente con el mundo del SEO.

Ponerlas todas en una entrada para mi tiene 2 ¿Por que?:

1: No soy programador y no se hacerlo mejor.

2: Cuando realices una búsquedas por letra, podrás familiarizarte con otras palabras y  facilitará que te preocupes por aprender su significado.
a
Ajax: Ajax viene de “Asynchronous JavaScript and XML”. AJAX es una herramienta de desarrollo web que permite ejecutar tareas y actualizar cierto tipo de contenido de un sitio web, sin que sea necesario recargar la página.

 

Algoritmos de caja negra: Algoritmos de caja negra son aquellos en los que el usuario no puede percibir cómo funciona internamente el proceso, aunque se puede trabajar para entenderlos a partir de sus características de entrada y salida. Como ejemplo, todos los algoritmos utilizados por los buscadores son ocultos.
Anuncio:  Anuncios que ve el usuario de un buscador, generalmente son una respuesta a una búsqueda en un sitio web o en el propio formulario de búsqueda. Cuando se trata de una campaña de pago por click, estos avisos son en formato de texto, con título, descripción y URL. En algunos casos, se destaca en negrita el texto de búsqueda. Los anuncios suelen localizarse en la parte superior, sobre los resultados orgánicos del buscador o a la derecha de la web.
API:  API es un programa que los auspiciantes utilizan para gestionar sus campañas publicitarias, como alternativa a las interfaces dentro de los buscadores. Es el acrónimo de Application Programming Interface (Interfaz para la Programación de Aplicaciones).

 

Arbitraje:  Arbitraje es una práctica por la que los editores web toman partido en la compra y venta de tráfico web. Habitualmente, se apunta a comprar tráfico más barato que las ganancias generadas por los avisos de pago por click. La diferencia, denominada Arbitraje de Afiliación, implica pujar por palabras clave, enlazando los anuncios hacia sitios web propios.

 

Análisis de cabeceras:  Análisis de cabeceras http/https es una técnica que permite desenmascarar redireccionamientos sospechados de cloaking por los buscadores. Asimismo, permiten detectar otros inconvenientes como controles de la caché, diseño inadecuado de las páginas de error, etc.

 

Alta en buscadores: Alta en buscadores es apenas el primer paso de la necesaria campaña de posicionamiento en buscadores. Esta alta consiste en solicitar a los determinados buscadores la admisión de un sitio web. El alta es fundamental para ser indexado, pero no tiene influencia en el orden de los resultados de la búsqueda.
a
– B2B: B2B señala a los emprendimientos que dirigen sus servicios, actividades o productos a otras empresas. Es el Acrónimo de Business to Business.

B2C:  B2C, a diferencia del B2B es un emprendiemiento que dirige sus servicios, actividades o los consumidores finales.

 

– Banear:  Banear se refiere a la pena impuesta por un buscador frente al intento de abuso, por parte de un usuario, de los resultados. El baneo puede apuntar a una URL específica o a su IP.

 

Blog:  Blog es un diario personal con actualizaciones frecuentes, que aspira a ser consumido por el público. Su etimología parte de la contracción de los términos “web log”.
a
Cloaking:  Cloaking es la técnica de mostrarle un contenido especial y optimizado a los buscadores, diferente al mostrado a los usuarios. Es una de las prácticas más penalizada por los buscadores.

 

– Código de servidor 403:  Código de servidor 403 es la respuesta del servidor señalando que niega a permitir la acción solicitada, junto a una breve explicación de las razones de esa prohibición.

 

– Código de servidor 404: Diccionario SEO blogtimista dice que el Código de servidor 404 es la respuesta del servidor frente a una URL solicitada que no se encuentra.
– Controles de personalización según idioma:  Controles de personalización según idioma suelen ser problemáticos para la indexación de los buscadores. Pueden generar problemas de contenido duplicado o, a veces, que no se rastree alguna versión de idioma del sitio.

 

– Contenido Flash o Silverlight: Flash o Silverlight no pueden ser totalmente indexables por los buscadores. Si bien Google hace grandes esfuerzos por rastrear los archivos.SWF, a partir de su trabajo conjunto con Adobe, lo cierto es que este formato corre con desventaja frente al contenido de texto para obtener un buen posicionamiento.

 

– Contenido en pop-up: Contenido en pop-up se suele abrir a partir de un código JavaScript, por lo tanto suelen ser no indexables.
a
Dominio country code Top Level Domain:  Dominio country code Top Level Domain (.es, .co.uk, .it, etc.) le señala a los buscadores que ese website es relevante para las búsquedas vinculadas a cierto país. Se trata del primer elemento tenido en cuenta para geolocalizar un dominio. Por lo contrario, si utilizamos dominios genéricos como .net, .com, .info, etc. los buscadores necesitan de otos elementos para localizar geográficamente al dominio.

 

– Dominios espejo:  Dominios espejo son dominios aparcados en el mismo servidor que el dominio principal. Como presentan el mismo contenido exacto que éste, se detectan como contenido duplicado. Eso implica que uno se posicionara correctamente, mientras otro -necesariamente- queda relegado a los resultados suplementarios.

 

Densidad de palabras clave:  Densidad de palabras clave es la cantidad necesaria de keywords que necesita un buscador para poder clasificar correctamente un sitio web en la categoría adecuada y con la relevancia acorde.
a
Enlace de dirección URL absoluta:  Enlace de dirección URL absoluta, son las URL que utilizan la ruta completa de la dirección, como en http://www.midominio.com/texto1.htm

 

Estrategia de adquisición:  Estrategia de adquisición es el proceso de ubicar clientes potenciales en el mercado con la predisposición a comprar. Resumiendo: El intento de dirigir clientes a una web, resolver sus cuestionamientos y concretar la venta.

 

Enlaces no rastreables:  Enlaces no rastreables hace referencia a los links que los buscadores no pueden seguir. Si bien las arañas pueden seguir los enlaces HTML tradicionales (Texto), no pueden hacer lo mismo con los links de una animación flash, enlaces JavaScript o los que están dentro de un marco (iframe). Los enlaces no rastreables hacen las veces de una pared para las arañas, impidiendo que indexen todo el contenido de un portal.

 

Enlaces entrantes en Yahoo!: Enlaces entrantes en Yahoo!, por ser uno de los buscadores menos restrictivos a la hora de mostrar enlaces entrantes que Google, permite generar una idea más clara de la popularidad de un sitio a partir de una búsqueda con el comando link:. La cantidad de enlaces entradas es una buena forma de calcular la popularidad potencial de un portal.

 

– Edad del dominio: Edad del dominio es un factor relevante con relación al posicionamiento, Un dominio antiguo aporta una mejor ubicación que otro reciente. En el mismo sentido, un dominio registrado a largo plazo es más positivo que otro registrado por un solo año, ya que indica la presencia de un proyecto a largo plazo.
– E-mail marketing:  E-mail marketing es una estrategia de marketing enfocada a la fidelización de los clientes de un website. Se refiere fundamentalmente al uso del e-mail para distribuir campañas de marketing a un gran número de receptores.
a
– Fecha de la caché de Google:  Fecha de la caché de Google indica cuándo fue que el robot de Google indexó la página por última vez.
a
Geolocalización del servidor, alojamiento o hosting Web:  Los buscadores determinan la Geolocalización del servidor, alojamiento o hosting Web a partir de varios factores, tema importante porque los indexadores entregan resultados geograficamente cercanos al lugar donde se generó la búsqueda.
En primer lugar se tiene en cuenta la presencia de un dominio country code Top Level Domain (ccTLD), asumiendo que -por ejemplo- los resultados de website .es son relevantes especialmente para España.
En el caso de los dominios genéricos (TLD), la localización se suele hacer a partir de la IP de los servidores donde están alojados, por eso pasa a ser relevante la decisión de ubicar -o no- un sitio en un servidor extranjero.
Otro elemento a tener en cuenta es que los buscadores ponderan la geolocalización de los enlaces entrantes.
Finalmente la localización del propietario del sitio -fácil de determinar a partir de WHOIS del mismo- puede ser relevante para algunos buscadores.
a
– Imágenes sin atributo alt:  Imágenes sin atributo alt pueden verse perjudicadas en su indexación, ya que los buscadores sólo pueden indexar texto para clasificar el contenido. De ahí la importancia de que las imágenes tengan un texto alt descriptivo y relevante.

 

– Inclusión de IP en listas negras:  Inclusión de una IP en listas negras, en la mayor parte de las veces obedece a que la misma es fuente de spam. Estar incluido en una lista así puede influir negativamente en el posicionamiento. Con la herramienta Blacklist Check se puede comprobar si una IP se encuentra listada.

 

Indexabilidad de un sitio Web:  Indexabilidad de un sitio Web es la comodidad que tienen los buscadores de ubicarlo y revisar totalmente su contenido. En términos generales, se considera que un sitio Web tiene buena indexabilidad cuando los crawlers, robots o arañas de los buscadores pueden (1) Encontrarlos, normalmente a partir de enlaces publicados en websites ya indexados; tras darlo de alta desde el formulario al tal efecto en los propios buscadores o bien por recabar la URL en el sitemap. (2) Rastrear la totalidad del contenido: no sólo el fácilmente catalogable como el texto, sino también vídeos, imágenes y animaciones. (3) Clasificarlos en las categorías de búsqueda pertinentes y con un nivel de relevancia mayor que el de los sitios web de la competencia.
Cumpliendo con estas condiciones, los buscadores incluirán el sitio Web en su índice.
A la par de la usabilidad, la indexabilidad es uno de los elementos críticos de los sitios Web de alto rendimiento. Porque para posicionar un sitio, es imprescindible que primero la misma haya sido rastreada e indexada.
a
Listas negras:  Listas negras son una lista de websites considerados peligrosos o fuera de los límites de lo aceptable. Un sitio puede ser incluido en una blacklist por usos fraudulentos, o porque aprovecha vulnerabilidades de los browsers para enviar software no deseado al usuario.
a
Medidas básicas:  Medidas básicas son las herramientas para hacer cálculos sobre un cierto tiempo, que permite una medida para hacer comparaciones entre performances pasadas y actuales. Las medidas básicas también pueden tener un objetivo a futuro, como para establecer un objetivo y calcular si las tendencias apuntan a una probabilidad de obtener ese objetivo.

 

Marca:  Marca es un título que identifica a un producto. Esto se vincula a una experiencia real del consumidor que asocia ideas, imágenes, logos, colores, tipografías para representar supuestos valores implícitos, de ideas e incluso relacionados con la personalidad.

 

Marketing de afiliación:  Marketing de afiliación permite multiplicar el potencial comercial de un sitio, aprovechando a otras web como elemento externo de ventas. Es una relación simbiótica de ventajas, ya que tiene como contrapartida el compartir parte de los ingresos. Resumiendo el vendedor aumenta sus ventas, el afiliado obtiene una comisión.
– Modelo de puja por subasta: Modelo de puja por subasta es el método más popular de puja para el Pay per Click. En primer lugar, un anunciante señala cuál es la cantidad máxima por click está predispuesto a pagar por una keyword. Si no hay un competidor, el anunciante paga lo que ofreció -o menos- por cada click. Pero en caso de que hay otro ofertante por la misma palabra clave, el anunciante con la oferta más alta pagará sólo un céntimo por sobre su más inmediato competidor. Como ejemplo, si el auspiciante X está dispuesto a pujar hasta 0,30$ y el anunciante Z ofrece hasta 0,40$. Pero si lo ofrecido realmente por el anunciante A es de 0,10$, entonces su competidor ganará la disputa pagando sólo 0,11$ por click.
– Marcas de jerarquía Hn:  Marcas de jerarquía Hn son fundamentales para clasificar un texto html. Como los indexadores no distinguen tamaños de fuentes, la forma correcta de indicarle a un robot que se halla frente a un título de un capítulo o una sección es con las etiquetas Hn. Las mismas, que se utilizan con la gramática, van del H1 al H6. Siendo el H1 el más relevante en tamaño y el H6 el más pequeño. Las etiquetas Hn son fundamentales para la correcta clasificación del contenido.

 

Marcos y marcos en línea (frames, inline frames):  Marcos y marcos en línea (frames, inline frames) tienen como gran defecto que no son indexados correctamente por los buscadores.
Los frames constituyen un método muy cómodo de programar una página de manera que sólo el contenido que cambia se actualice cada vez, disminuyendo el ancho de banda consumido y el tiempo de descarga. Asimismo, los marcos permiten integrar sin dificultades el contenido de una tercera página dentro de la maquetación general de la propia.
En el primer caso, la evolución y generalización de las conexiones de banda ancha ya no justifica los problemas en el rastreo de los buscadores que implica el uso de marcos. En la segunda opción, el uso de marcos en línea es todavía bastante frecuente a pesar de sus desventajas.
Meta refresh:  Meta refresh es un método para indicar al navegador que refresque automáticamente el website actual cada cierto tiempo predeterminado. Si se vincula esta Meta con una URL diferente, el navegador se redirecciona al nuevo sitio. Seteando el tiempo de refresco en 0 el redireccionamiento se produce tan pronto se carga la página. Este tipo de redireccionamiento del lado del cliente (a diferencia de la redirección 301 ó 302, ejecutados en el servidor) se suelen usar en técnicas de cloaking, mostrándoles a los buscadores un contenido optimizado distinto del contenido mostrado a los usuarios.

 

– Meta Expires:  Meta Expires se señala una fecha en la que los buscadores deberían eliminar una página de su archivo o caché. En ocasiones, se emplea con la cantidad de días ajustada a 0 para evitar el almacenamiento de una página en concreto.

 

– Meta Pragma: Meta Pragma es evitar servidores proxy y los navegadores almacenen la página en su caché. Esto, sin dudas, complica la indexación por parte de los buscadores.- Meta Robots / meta Googlebot: diccionario SEO blogtimista dice que las Meta Robots / meta Googlebot dan instrucciones a los buscadores (o sólo a Google en el segundo caso) para que no rastreen la página ni sigan los enlaces de la misma, impidiendo su indexación. Suelen incluirse mientras un nuevo sitio se esta testeando, y si se olvida eliminarlas una vez lanzado, se impide su indexación.
a
No follow – atributo en los enlaces:  El atributo en los enlaces Nofollow (texto) impide que el zumo de popularidad fluya de la página original a la página de destino. Esto significa que la página que recibe el enlace no gana popularidad ni credibilidad de la página origen. El objetivo del atributo es evitar que la compra de enlaces en website de alto PageRank se use para falsear el cálculo de relevancia en las páginas de resultados de la búsqueda. Google penaliza los sitios Web que venden enlaces sin incluir el atributo nofollow, bajando el valor de PageRank y descontando la popularidad de los enlaces en el cálculo de la relevancia.

 

– Número de páginas reales del sitio:  Número de páginas reales de un sitio permite compararlo con la cantidad de páginas indexadas en un buscador. La relación entre ambos números es lo que se conoce como saturación. El objetivo es lograr que la misma sea del 100%. La baja saturación es un indicativo de un inconveniente en el rastreo del contenido. En los portales dinámicos conocer el número páginas es realmente complicado.

 

– Número de enlaces internos/externos:  Número de enlaces internos/externos se puede evaluar cuanta popularidad fluye por nuestro sitio. El zumo de popularidad de un sitio se reparte entre todos los enlaces salientes. Si la cantidad de enlaces salientes es muy alto, se está entregando más popularidad hacia afuera que hacia las propias páginas internas.
a
Optimización automática:  Optimización automática refiere a la capacidad de los buscadores de ajustar dinámicamente las campañas publicitarias a partir de los más altos resultados de click-through. A partir de eso, optimizan la presentación y lo muestra con una mayor frecuencia que otros anuncios del mismo Grupo de Anuncios.
a
– Programas de gestión de pujas:  Programas de gestión de pujas son softwares que gestionan automáticamente las campañas de Pay per Click a partir de ciertas reglas ajustadas por el anunciante o bien mediante algoritmos que permiten ajustes en tiempo real relacionados con acciones concretas. Esto permite correcciones dinámicas de los precios de puja, pausar campañas, gestionar topes de presupuesto, ajustes en las pujas basados en la tasa de click through (CTR), la ubicación en el ranking y más.

 

– Puja:  Los precios de Puja son muy variables, dependiendo de la popularidad de la palabra clave y de la competencia de otros anunciantes. En una puja, el anunciante debe señalar cuál es la cantidad máxima de dinero que un anunciante está dispuesto a pagar por cada vez que un usuario hace click sobre un anuncio.

 

– Pre-home:  El uso de una Pre-home, por ejemplo una página de introducción con una animación flash o un menú para seleccionar el idioma o país, disminuye el PageRank de la home real del sitio, que es la que finalmente compite en los buscadores.

 

– PageRank: PageRank es el indicador de popularidad que Google le asigna a un website, con relación a la calidad y cantidad de los enlaces entrantes. Cuanto más enlaces de calidad, más popularidad. Y de ahí, mejor posicionamiento.
El valor de PageRank más relevante es el de la home de un dominio, pero no se debe descuidar el control de las páginas internas, por si existieran problemas estructurales que bajen abruptamente el ranking en el interior del portal.

 

– Posicionamiento en buscadores:  Posicionamiento en buscadores es una estrategia de marketing que apunta a atraer visitas a un website a partir de los links de los resultados orgánicos de los buscadores.
El posicionamiento en buscadores trabaja en la programación, la popularidad y el contenido de una Web en vistas a lograr los primeros puestos en los resultados de los buscadores más populares cuando los usuarios introducen en ellos términos de búsqueda específicos.

 

– Permission Marketing:  Permission Marketing es una estrategia de marketing que apunta a obtener de un cliente su aprobación para recibir información de una empresa.
La idea de permission marketing fue creada por Seth Godin hacia 1999 cuando editó un libro con ese título. Allí establece las bases sobre las que se yergue el permission marketing. En primer lugar, lograr el permiso para recibir el mensaje. En segundo lugar, la personalización de la comunicación con relación a las características del destinatario. Por último, el uso de herramientas que no alteren o interfieran con las actividades que realice el destinatario en ese preciso momento.
a
Redireccionamiento 301: Redireccionamiento 301 es un aviso del servidor que señala que una URL ha cambiado permanentemente de lugar y lleva al usuario a la nueva dirección.

 

– Redireccionamiento 302:  Redireccionamiento 302 es muy similar al 301, es decir ejecutado en el servidor, pero señala sólo cambios temporales. Se usa básicamente cuando una URL cambia de lugar, pero se espera que vuelva prontamente a su lugar original.

 

– Retroenlaces:  Retroenlace se apunta a todos los links que apuntan a determinado website. Se los mencionan generalmente como “enlaces entrantes”.
– Robots.txt:  Robots.txt es un archivo ubicado en la raíz del dominio (www.dominio.com/robots.txt) con instrucciones para los crawlers. Su chequeo permite detectar la posible inclusión de directivas erróneas que impidan la correcta indexación del sitio web. Se edita con cualquier editor de texto.

 

Redireccionamiento JavaScript:  Redireccionamiento JavaScript es aprovechado para hacer cloaking, redirecionando a los usuarios a otro lado, ya que los robots de los buscadores no ejecutan JavaScript.
a
Segmentación conductual: Segmentación conductual es la práctica de segmentar y ofrecer anuncios publicitarios a grupos de usuarios que muestran un perfil similar en tanto a su localización, sexo o edad, así como a con relación a sus actividades y reacciones online. Las conductas segmentadas incluyen sitios de visita frecuente, con que secciones de esos sitios se interactúa más, por que tipo de publicidad se siente atraído, etc.

 

 Saturación: Saturación es el nivel de páginas indexadas por sobre el total de páginas que conforman un portal. El ideal es que sea cercano al 100%. La cantidad de páginas indexadas se obtiene con el comando site:dominio.com en la mayor parte de los buscadores.

 

Snippet en SERPS:  Snippet es el pequeño texto que describe el contenido de un sitio en los resultados de búsqueda de los Search Engines (SERPS). Son apenas dos líneas debajo del título, muchas veces la Meta Description de la página. Un buen o mal snippet es fundamental al momento de convertir un buen posicionamiento en clics reales.

 

– Simuladores de araña:  Simulador de Araña ayuda a “ver” un sitio web tal como lo ven los robots de los buscadores. Permite detectar posibles problemas de navegabilidad o de estructura de una página.

 

Serps : Search engines Results Pages:  SERPS, el acrónimo en inglés de Search Engines Results Pages, son las páginas de resultados que entregan los buscadores al enviar un término de búsqueda.
a
Tests A/B: Los Tests A/B consisten en mostrar a ciertos usuarios una versión de una página y controlar las conductas de acuerdo con lo que vieron.
Se suele llamar versión A al diseño primigenio de un website. La versión B sería una edición alternativa, con un nuevo diseño o nuevos contenidos. Un ejemplo simple es el de modificar la ubicación y configuración de los avisos publicitarios y analizar la diferente conversión de cada anunció según la versión.

 

– Texto del anuncio:  Texto del anuncio se señala al texto principal de un aviso publicitario. Por lo general, la segunda y tercera líneas del aviso en cuestión.

 

Texto alternativo ALT:  Texto alternativo ALT es un atributo HTML
que permite agregarle a las imágenes una descripción textual. Es un elemento fundamental para la accesibilidad web de las personas con discapacidad visual. Y una herramienta indispensable para la indexación de un sitio.
– Texto de anclaje Anchor:  Texto de anclaje Anchor son las palabras empleadas dentro de los enlaces. Este texto de anclaje es importante en el cálculo de la relevancia sobre un tema determinado de cada página.

 

– Título del anuncio: Diccionario SEO blogtimista dice que el Título del anuncio es la primera línea de un aviso. Funciona como titulares de cada publicidad.

 

– Texto no rastreable: Diccionario SEO blogtimista dice que es fundamental que no haya información relevante como Texto no rastreable. Los indexadores tienen dificultades para leer los textos en formatos como flash. Una alternativa es poner un texto alt descriptivo en este tipo de elementos.

 

– Texto de la caché:  Texto de la caché de Google es el texto que efectivamente el buscador ha logrado rastrear de cierta web. Es fundamental que este texto incluya las palabras claves a posicionar, y que tenga un título y una descripción coherentes.

 

– Títulos en los resultados de los buscadores:  Títulos en los resultados de los buscadores es uno de los elementos fundamentales para evaluar la relevancia de un website.

 

– Title del enlace: Title de un enlace permite sumar un texto descriptivo amplio sobre el link en cuestión. Permite incorporar keywords adicionales en aquellos enlaces que están limitados a una o dos palabras.

 

– Tamaño de archivos de página y velocidad de descarga:  Tamaño de archivos de página y la velocidad de descarga afecta la manera en que los buscadores rastrean un sitio web.
Un pequeño tamaño de archivo es bueno tanto para el usuario, como para la indexación.
a
– URL únicas:  Las URL únicas son lo que permiten a los buscadores indexar y clasificar cada página. Por eso es importante que haya coincidencia entre la dirección de un sitio y su contenido. Presentar el mismo contenido con dos direcciones diferentes, generalmente es clasificado como contenido duplicado.

 

– URL amigables para buscadores: Diccionario SEO blogtimista dice que las URL amigables para buscadores son útiles para el posicionamiento. Usar palabras clave relevantes en el dominio, subdirectorios y nombres de archivo influye positivamente sobre la ubicación de un website. Una buena palabra clave en el dominio es el mejor punto de partida para posicionar un portal.
a
– Vista de página con JavaScript desactivado:  Vista de página con JavaScript desactivado permite descubrir procedimientos de cloaking. También ayuda a encontrar potenciales problemas para la indexación, ya que los robots no corren JavaScript.

 

– Vista de página con imágenes desactivadas: Vista de página con imágenes desactivadas ayuda a encontrar dificultades de navegabilidad. También sirve para aislar los textos, que es lo único que usan los search engines para calcular la pertinencia de un sitio.

 

Vista de página linearizada– orden de carga:  Vista de página linearizada muestra el contenido en el mismo orden como lo ven los robots. Como el orden es uno de los factores que define la relevancia de un contenido (el robot asume que lo primero que se lee es lo más importante) es fundamental comprobar que las palabras clave sean lo primero en cargarse.

 

– Variables de sesión en URL:  Variables de sesión en URL (en las webs de contenido dinámico) puede provocar que los robots vean el mismo contenido con diferentes URL. Lo que puede generar dificultades de indexación por contenido duplicado.

 

– Vecindario de IP:  Vecindario de IP es fundamental para el posicionamiento. Compartir el servidor con sitios problemáticos (spammers, pornográficos, etc.) puede penalizar la IP de ese servidor, afectando a todos los usuarios por igual.

 

– Validación de código HTML: Validación de código HTML es un paso fundamental para un trabajo amigable con las arañas. El evitar errores de validación no garantiza un mejor posicionamiento, pero si evita dificultades de indexación.

 

Agradecer a mi Hermano Santos Gázquez y amigo a José Tudela  su colaboración y apoyo incondicional en esta andadura.