Secciones
Referencias
Resumen
Servicios
Descargas
HTML
ePub
PDF
Buscar
Fuente


Validez de un instrumento para medir capital intelectual en empresas
Validity of an instrument to measure intellectual capital in firms
Investigación Administrativa, vol. 50, núm. 128, pp. 1-20, 2021
Instituto Politécnico Nacional


Recepción: 25 Enero 2021

Aprobación: 31 Mayo 2021

Resumen: Objetivo: identificar la estabilidad entre los resultados de la validez de constructo, convergente y discriminante de un instrumento de capital intelectual. Método cuantitativo:análisis estadístico de tres tipos de validez, previa traducción inversa (inglés-español-inglés) del cuestionario; muestra no probabilística de 226 empresas de México y Bolivia; cálculo del análisis factorial exploratorio, análisis factorial confirmatorio, varianza promedio extraída y criterio Fornell-Larcker. Resultados: se confirma la conveniencia de aplicar pruebas diversas para obtener la validez de un instrumento de capital intelectual. Originalidad: privilegiar lo teórico sobre lo estadístico en el análisis de la validez de instrumentos; confianza de replicar este cuestionario en contextos similares. Limitaciones: tipo y tamaño de muestra; inclusión marginal de la validez de contenido.

Palabras clave: validez, capital intelectual, instrumento de medición, validez convergente, validez discriminante.

Abstract: Objective: to identify the stability among the validity results of the construct, convergent and discriminant of an intellectual capital instrument. Quantitative method: statistical analysis of three types of validity, previous back translation (English-Spanish-English) of the questionnaire; non-probabilistic sample of 226 companies in Mexico and Bolivia; calculation of the exploratory factor analysis, confirmatory factor analysis, average variance extracted and Fornell-Larcker criterion. Results: the convenience of applying different tests to obtain the validity of an intellectual capital instrument is confirmed. Originality: to prioritize the theoretical over the statistical in the analysis of the validity of instruments; confidence in replicating this questionnaire in similar contexts. Limitations: type and size of the sample; marginal inclusion of the content validity.

Keywords: validity, measuring instrument, intellectual capital, convergent validity, discriminant validity.

INTRODUCCIÓN

La medición se ha convertido en un elemento esencial para demostrar la madurez de una disciplina. La validez es uno de los aspectos más importantes y sobresale sobre los diversos criterios de medición, pues a la vez que fomenta el desarrollo del conocimiento científico, permite contrastar los aspectos teóricos frente a los empíricos (LeBel et al., 2017). De hecho, no es posible hablar de la existencia de conclusiones válidas sin un instrumento con una adecuada consistencia interna (Solimun & Fernandes, 2017). Es así que la validez se ha convertido en un aspecto trascendental dentro del proceso inductivo de la ciencia, específicamente para replicar un instrumento de medición en diferentes contextos y poblaciones (Manterola et al., 2018).

La validez, en términos generales, es definida como el grado en que un cuestionario mide lo que debe medir o cumple con el objetivo para el cual fue construido (Clark & Watson, 2019; Ravid, 2020; Sapsford, 2006). Un instrumento puede tener diversos tipos de validez (i.e. de contenido, de constructo, discriminante y convergente [Andrew et al., 2020; Rosendo, 2018]), dependiendo del propósito, la población objetivo, las condiciones en que se aplica y el método empleado. Primeramente, la validez de contenido se establece en el diseño de una prueba o juicio de expertos (Álvarez-Ríos et al., 2019; Nievas et al., 2020). Éste –el juicio de expertos– es recurrente cuando un instrumento que fue construido para una población diferente se adapta mediante un proceso de traducción-retraducción (Dorantes-Nova et al., 2016). Es frecuente que instrumentos estandarizados en países de habla inglesa sean utilizados en países de lengua no inglesa, lo cual en ocasiones presenta dificultades importantes, ya que la sola traducción no genera una equivalencia cultural y/o semántica (Garcimartin et al., 2019), debido a barreras del idioma (Squires et al., 2020), o en cuanto a su propósito (Muñiz & Fonseca-Pedrero, 2019).

Por otra parte, aunque los estudiosos de las organizaciones tienen una idea general acerca de lo que se busca al caracterizar al capital intelectual (CI), existen aspectos específicos en los que hay desacuerdos. Considerando que la mayoría de las investigaciones en torno a esta variable se han centrado en su medición (Martín-de Castro et al., 2019), es en este marco de referencia donde cobra sentido la validez de constructo, como elemento unificador que integra las relaciones teóricamente relevantes a partir de la evidencia empírica. La validez de constructo consiste en un análisis del significado de lo que mide un instrumento (Carrillo-Avalos et al., 2020; Morales-Vallejo, 2011). Ésta parte del análisis del concepto (Larroulet, 2021; Stone, 2019), y se refiere al grado en que un instrumento favorece la medición de una dimensión o factor, lo cual depende de cuán adecuada sea la definición y los elementos para conceptualizar y medir la variable (Creswell & Creswell, 2017).

Además de la validez de constructo, la validez convergente corresponde al grado en que se asocian dos medidas del mismo constructo (García, 2018; Krabbe, 2017), mientras que la validez discriminante, a la forma en que la variable se distingue de otros conceptos (Hair et al., 2018) o grupos (Carrillo-Álvarez et al., 2019).

En conjunto, la validez ha dado lugar a una reflexión profunda sobre el rol que desempeña la medición dentro de la ciencia, en especial en ciencias sociales (Flake et al., 2017; Rammstedt & Bluemke, 2019), lo que conlleva que la validez de un instrumento deba ser vista de manera crítica e integral (Markus, 2016; Norman, 2016), en especial porque ha surgido una discusión sobre lo que es la validez (Stone, 2019) y su utilidad (Larroulet, 2021), donde se promueve que lo estadístico no prevalezca sobre lo práctico y teórico (Guyon, 2018; Mercado-Salgado et al., 2016).

Es así que, desde las primeras publicaciones sobre la validez hasta la actualidad, siguen latentes cuestionamientos en cuanto a que: (1) si la parte estadística es suficiente para sostener que un instrumento cumple con propiedades de validez; (2) si la validez se refiere al cuestionario o a los elementos del mismo; (3) o qué tipo de validación es suficiente para un instrumento de medición. Respecto al primero, algunos autores están de acuerdo en que ciertas pruebas estadísticas son suficientes para medir la validez (Martínez-García & Martínez-Caro, 2009; Norman, 2016). Sin embargo, la validez trasciende a la obtención de un coeficiente estadístico (Kline, 2016, citando a Thompson, 2000; Mercado-Salgado et al., 2016; Morales-Vallejo, 2011), pues no solo se refiere a la medición de las propiedades psicométricas de un cuestionario, sino en cómo éstas pueden ser empleadas en otros contextos (Squires et al., 2020), lo que da lugar a la necesidad de analizar la validez de contenido, específicamente mediante el método de traducción inversa (o traducción-retraducción [Dorantes-Nova et al., 2016]).

En segundo lugar, algunos autores definen a la validez como una característica propia del instrumento (Sapsford, 2006), mientras que otros la consideran un proceso multifacético (Adcock & Collier, 2001), con la integración de diferentes elementos. En este sentido, la validez no es una cualidad del instrumento de medición sino de los indicadores del mismo (Ventura-León, 2017), la cual pretende explicar las dimensiones y, posteriormente, al cuestionario.

En cuanto al tercer cuestionamiento, los criterios sobre el tipo de validez del instrumento se agrupan en tres posturas: (a) existen publicaciones con pruebas exhaustivas acerca de la validez (Hawkins et al., 2018); (b) la validación sólo puede ser fruto de una integración de pruebas cualitativas y cuantitativas debido a que no es posible validar un instrumento con un solo tipo de validación (Adcock & Collier, 2001); y (c) es posible obtener resultados contradictorios al medir la validez, debido al uso de diferentes pruebas estadísticas (Martínez-García & Martínez-Caro, 2009). Es importante destacar que en el campo de las ciencias sociales prevalece la validez de instrumentos usando el Análisis Factorial Exploratorio (AFE) (Orçan, 2018).

Al considerar que la validez se encuentra asociada significativamente con la posibilidad de replicar un estudio en diferentes escenarios (Corral, 2017; LeBel et al., 2017), permitiendo llevar a cabo estudios transculturales que a menudo involucran la necesidad de comunicarse con personas en idiomas distintos al propio del investigador (Squires et al., 2020), es imperativo contar con instrumentos suficientemente válidos para contribuir a la solidez del estudio de las organizaciones y sus recursos, tanto tangibles como intangibles. Para ello se requiere profundizar en la estabilidad de los resultados de los diferentes tipos de validación, sin olvidar que lo estadístico no puede estar sobre lo teórico (Kline, 2016, citando a Thompson, 2000), o bien, que las consideraciones estadísticas por sí solas, no garantizan resultados con significación conceptual (Mercado-Salgado et al., 2016; Morales-Vallejo, 2011).

A partir de lo anterior, el objetivo de esta investigación es identificar la estabilidad entre los resultados de las diferentes pruebas de validez de un instrumento de capital intelectual en organizaciones latinoamericanas. La estructura del presente documento comprende cinco secciones. La primera contiene la revisión de la literatura incluyendo diferentes modelos, estudios e indicadores sobre el capital intelectual, considerando las características de la operacionalización de la variable en sus tres dimensiones (CH, CS y CO) y los 14 reactivos en español, así como la caracterización de la muestra. En una tercera sección se presentan los resultados en tres partes: validez de constructo, validez discriminante y validez convergente. Continúan las conclusiones e implicaciones del estudio, para finalizar con las limitaciones y recomendaciones para estudios futuros.

El interés por el estudio sobre el capital intelectual ha ido en aumento en todo el mundo (Inkinen, 2015; Martín-de Castro et al., 2019; Popescu, 2019; Serenko & Bontis, 2013). La mayoría de los modelos coinciden en la existencia de tres capitales: capital humano (CH), capital estructural (CE) y capital relacional (CR) (Gómez-Bayona et al., 2020). La concepción de las dimensiones del CI varían según el modelo al que se haga referencia; no obstante, según Ferenhof et al. (2015), las diferentes propuestas coinciden en ciertos aspectos que integran a los capitales: CH (motivación, relaciones interpersonales, conocimiento, habilidades, actitudes y agilidad; CE (capital de innovación, el capital tecnológico y organizacional, y procesos); y CR (relación con clientes y otros entes).

Por otro lado, algunos estudios de meta-análisis reportan que ha aumentado el número de publicaciones empíricas sobre CI (Inkinen, 2015; Pedro et al., 2018), lo cual ha sido posible a partir del desarrollo de instrumentos de medición. La Tabla 1 contiene estudios empíricos sobre capital intelectual que se han llevado a cabo a nivel internacional.


Tabla 1.
Estudios empíricos sobre el capital intelectual a nivel internacional y Latinoamérica
Nota. Elaboración propia con base en los autores citados en la tabla. E.U.A.= Estados Unidos de América; AFE = Análisis factorial exploratorio; AFC = Análisis factorial confirmatorio; AVE = Varianza promedio extraída. *Estudios realizados mediante el empleo del cuestionario propuesto por Subramaniam y Youndt (2005).

La medición del CI hace posible fortalecer el control y el aprovechamiento de los intangibles dentro de la organización (Bontis, 1998). Aunque algunos modelos no tienen indicadores cualitativos y financieros siguen latentes algunas complicaciones como, por ejemplo: (a) impiden la estandarización de la evaluación y control del CI; (b) no permiten el comparativo entre empresas diferentes; (c) complican el estudio de la relación del CI con otras variables. Por ello, es trascendental contar con instrumentos validados en el idioma dominante de las organizaciones.

A nivel mundial las investigaciones sobre CI han sido mayormente cuantitativas (Pedro et al., 2018) y escritas en inglés, dificultando la difusión de estudios en otras lenguas. Aun así, esta variable se ha convertido en un tema de interés para investigadores de países iberoamericanos (Montes, 2010), con lo que académicos de la región en cuyos países el idioma dominante es el español, han sobresalido a nivel mundial; sin embargo, dichos autores también publican en lengua inglesa (Serenko et al., 2010; Serenko & Bontis, 2013). No obstante, a pesar de esto, la evidencia empírica en español todavía es escasa, donde se destacan ciertos estudios (Costamagna et al., 2019; Fernández-Jardón & Martos, 2016; Jardon & Catalina, 2015; Rodríguez & Rubio, 2006).

Para cubrir el vacío de conocimiento en regiones latinas, así como de instrumentos en español que puedan ser administrados en diferentes países latinoamericanos, es inminente aumentar la investigación y publicación de la medición del CI en organizaciones ubicadas en territorios cuya lengua es el español. Para que esto sea posible, existe la necesidad de instrumentos que mejoren el acercamiento empírico al CI (Mercado-Salgado et al., 2016), mediante instrumentos válidos dentro de este contexto. En este sentido, todavía es necesario realizar más investigaciones empíricas (Esparza et al., 2019), ante la necesidad de desarrollar instrumentos validados para medir a esta variable.

Con tal propósito, en esta investigación se valida la adaptación al español del cuestionario elaborado por Subramaniam y Youndt (2005). Estos autores, al asociar el CI con las capacidades de innovación, generaron un cuestionario para medir el capital humano (CH), el capital social (CS) y el capital organizacional (CO). La definición conceptual y operativa del capital organizacional (CO) corresponde al clásico capital estructural; mientras que, el capital social (CS) coincide con lo denominado como capital de clientes o relacional (Bontis, 2003). El instrumento propuesto por los autores se encuentra integrado por 14 ítems, de los cuales cinco corresponden al CH, cinco al CS y cuatro al CO.

Dicho instrumento ya ha sido replicado y validado en otros contextos y por otros autores como Wang y Chen (2013) y Nguyen (2018). Entre los resultados obtenidos con relación al instrumento de medición, los primeros autores encontraron, mediante el Modelamiento de Ecuaciones Estructurales (MEE), resultados favorables en una muestra de empresas chinas, mientras que el segundo autor hizo lo propio con empresas de Vietnam al calcular el AFE. Sin embargo, tal instrumento no ha sido adaptado y traducido al español a pesar de sus características favorables: (1) es un cuestionario corto y entendible; (2) a diferencia de otros cuestionarios de CI, éste ha sido traducido y validado a otras lenguas (e.g., chino mandarín); (3) mide las tres dimensiones básicas del CI: la humana (CH), la estructura y organización (CO), así como la relación con otros entes (CS).

A partir de lo anterior, la pregunta de investigación es: ¿los indicadores de un instrumento para medir el CI elaborado originalmente en inglés por Subramaniam & Youndt (2005) y traducido al español para aplicarse en el contexto de organizaciones latinoamericanas (mexicanas y bolivianas), cuentan con estabilidad de medida a través de validez de constructo, convergente y discriminante?

MÉTODO

Muestra

Con el propósito de medir el nivel de validez de constructo, convergente y discriminante de un instrumento de medición sobre CI, se recurrió a una metodología cuantitativa, con un diseño no experimental. En la recolección de datos primarios se utilizó un muestreo no probabilístico por conveniencia obteniendo la participación total de 226 empresas (161 en México y 65 en Bolivia). Se contó con la representación mayormente de empresas industriales y de servicios. En cuanto al número de empleados, predominaron las empresas con uno a 10 empleados (Tabla 2).


Tabla 2.
Características de la muestra (n = 226)
Nota. Elaboración propia con información de la muestra.

El trabajo de campo se llevó a cabo durante 2017 y 2018 en el estado de Sonora, México y el Departamento de Santa Cruz, Bolivia. En ambos casos, el cuestionario para la medición del CI fue autoadministrado a representantes de las empresas participantes, quienes después de conocer el objetivo del presente estudio, decidieron participar voluntariamente.

Aunque este documento no pretende ser un manual que explique la validez de instrumentos dentro de ciencias sociales, con el fin de cumplir el objetivo inicial, se retoman aspectos y supuestos tanto metodológicos como estadísticos. Mediante el empleo del programa SPSS (Statistical Package for the Social Sciences) y su extensión AMOS, se aplicaron las pruebas estadísticas necesarias para medir la validez de constructo, discriminante y convergente.

Como se mencionó con anterioridad, un instrumento se construye a partir de un sólido sustento teórico y antecedentes científicos (LeBel et al., 2017). En este sentido, un primer criterio para medir la consistencia interna de un cuestionario es la validez de contenido, entendida como un juicio sobre el constructo en cuestión (Kerlinger & Lee, 2002). Aunque es posible destacar la existencia de diferentes modelos acerca del CI, la mayoría de estos concuerdan que esta variable es operacionalizada a través de tres dimensiones: capital humano, capital estructural y capital relacional (Gómez-Bayona et al., 2020). Ferenhof et al. (2015), al hacer una revisión exhaustiva de las dimensiones del CH, encontraron que las diferentes aproximaciones teóricas coinciden en que éste se define a través de la motivación, relaciones interpersonales, conocimiento, habilidades, actitudes y agilidad. Este autor, por medio de la misma metodología, expone las características de un segundo capital, el cual se basa en la innovación, de los procesos, así como el capital tecnológico y organizacional; además de un tercero donde se encuentra la relación con clientes y otros entes, los cuales dentro de la presente investigación son nombrados como capital organizacional (CO) y capital social (CS), respectivamente.

Según el estudio bibliométrico elaborado por Pedro et al. (2018), con una revisión de estudios empíricos hasta 2016, estos tres tipos de capitales han sido los más frecuentes al operacionalizar al CI desde un enfoque organizacional. Si bien identificaron 35 tipos de capital, todos quedan en esta triada (CH, CE y CR). Por su parte, Ferenhof et al. (2015) realizaron una revisión de 83 artículos sobre CI y encontró que una gran cantidad de estudios teóricos y empíricos emplean una taxonomía basada en tres dimensiones: una que se basa en la parte individual, es decir, el capital humano –aspecto de mayor frecuencia entre los autores–; otra que considera la estructura, tecnología, innovación, organización, procesos y/o negocio; y una tercera que se centra en las relaciones con los clientes y otras entidades sociales. De alguna forma, ya sea como primer nivel o segundo, dichos aspectos aparecen en la mayor parte de los modelos, a pesar que el concepto empleado no sea el mismo. Es decir, más allá de la etiqueta de la dimensión, existen equivalencias. Por ejemplo, entre el capital estructural de Bontis (1998, 2003; Bakhsha et al., 2018) y el capital social de Subramaniam & Youndt (2005).

Un modelo que sigue dicha lógica es la propuesta de medición de Subramaniam & Youndt (2005), quienes operacionalizan al CI, en las habilidades, experiencia y conocimientos de las personas (CH), estructura organizacional, cultura, procesos y sistemas (CO), así como relaciones y redes de colaboración entre los empleados, clientes, proveedores y patrocinadores (CS).

A partir de lo anterior, para la medición del CI sigue siendo necesaria la traducción de instrumentos en el lenguaje de la cultura que está siendo estudiada, sin perder de vista que dichas herramientas deben ser válidas y confiables en cada cultura. Por ello, la calidad de la traducción desempeña un papel significativo para asegurar que los resultados obtenidos no se deban a errores en la traducción (Boer et al., 2018; Silalahi et al., 2018), sino que reflejen diferencias o similitudes reales de un fenómeno entre culturas (Gregorio, 2017; Squires et al., 2020). Una alternativa es optar por la traducción-retraducción (o traducción inversa), técnica tomada de la literatura (Álvarez & Torronteras, 2020), que juega un papel relevante en la validación de contenido (Arancibia et al., 2020; Espinoza & Garcés, 2016; Rojas-Ospin & Valencia-Serrano, 2019).

Se realizaron los siguientes pasos para alcanzar la validez de contenido del instrumento de medición del CI: (1) se tradujo el cuestionario del inglés al español; (2) tres profesores conocedores de la lengua inglesa y de las ciencias administrativas, revisaron la traducción e hicieron comentarios de mejora; (3) se realizaron ajustes gramaticales y semánticos; (4) se re-tradujo del español al inglés con el fin de revisar similitudes y detectar diferencias en la redacción de los reactivos; (5) se aplicó una prueba piloto a una pequeña muestra de estudiantes de posgrado que trabajaban en empresas privadas; (6) la versión final del cuestionario se aplicó a la muestra de estudio en México; y (7) antes de ser aplicado en Bolivia, dos profesores de ese país revisaron el cuestionario.

La Tabla 3 contiene la operacionalización del instrumento de CI en sus tres dimensiones medidas a través de 14 ítems: cinco para CH, cinco para CS y cuatro respecto a CO. Se empleó una escala de tipo Likert de cinco puntos que oscilan desde 1 (totalmente en desacuerdo) hasta 5 (totalmente de acuerdo).


Tabla 3.
Operacionalización de la variable
Nota. Adaptado de Subramaniam y Youndt (2005). * Los indicadores (nomenclatura) son empleados con el propósito de sintetizar las dimensiones e ítems. En la versión en inglés, los autores inician los ítems con “nuestros empleados” (Our employees) debido a que su muestra de estudio estuvo conformada exclusivamente por Directivos (CEOs). En el caso de la presente investigación, considerando que la muestra se integraría por respondientes de diferentes niveles jerárquicos, se optó por iniciar con “los empleados de la organización”.

En cuanto a las propiedades psicométricas del instrumento, Subramaniam & Youndt (2005) realizaron el siguiente procedimiento: (1) aplicación de una prueba piloto con estudiantes de maestría; (2) obtención de valores favorables para la validez de constructo: AFC (X2/gl = 2.78; CFI = .91; GFI = .87), y confiabilidad (α > .70). Además, el cuestionario fue validado por otros autores (Wang & Chen, 2013), reportando resultados satisfactorios en cuanto a los niveles de confiabilidad y validez, a través de la Modelación de Ecuaciones Estructurales (MEE) y validez convergente (criterio Fornell-Larcker). Finalmente, Nguyen (2018), añadió algunos ítems al cuestionario original, el cual validó mediante un AFE.

RESULTADOS

Para medir la validez de constructo usualmente se recurre al AFE y al AFC (Kyriazos, 2018; Moafian et al., 2019; Valdés et al., 2019). El AFE es ampliamente usado en investigación en ciencias sociales (Orçan, 2018), en especial en administración para detectar los factores que pueden explicar la inter-correlación entre los elementos que conforman la variable. El AFC requiere pruebas complementarias de bondad de ajuste para confirmar si la estructura obtenida coincide con la estructura propuesta (Hair et al., 2018; Morales-Vallejo, 2011); o bien, evalúa si los factores obtenidos en el AFE explican la matriz de inter-correlaciones adecuadamente (Foster, 2006). Por tanto, el AFE y el AFC suponen procedimientos distintos.

Si bien no existe un criterio o norma definitiva sobre el número de sujetos necesarios para el cálculo del AFE, Foster (2006) y Ho (2006) recomiendan, al menos, 100 sujetos. En cambio, para Hair et al. (2018), el mínimo de sujetos debe ser 50, aunque es importante cuidar la proporción de sujetos con respecto al número de variables (ítems), siendo idóneo 10 sujetos por cada ítem (variable) que mide el cuestionario (Morales-Vallejo, 2011). En este caso, el instrumento traducido y aplicado tiene 14 reactivos, por lo tanto, se requieren como mínimo 140 sujetos, lo cual se cumplió al tener una muestra de 226 empresas.

Mediante el método de componentes principales, cuyo objetivo es simplificar y agrupar los indicadores en factores, se analiza toda la varianza, común y no común. Este método es recomendable cuando el cuestionario contiene 20 o menos reactivos. Además, cuando los ítems que delimitan un factor poseen pesos de 0.50 o más en este factor y menores en los demás, puede afirmarse que se cuenta con una estructura factorial clara (Ho, 2006; Morales-Vallejo, 2011).

Para ello, es necesario tomar en cuenta dos pruebas preliminares que soporten la conveniencia de realizar el AFE del instrumento en el que los ítems son la unidad de análisis: el Keiser-Meyer-Olkin (KMO) y la prueba de esfericidad de Bartlett. De acuerdo con Field (2018) y Ho (2006), los valores superiores a 0.7 son aceptables para la prueba KMO, mientras que la segunda prueba muestra que las variables son independientes cuando se tienen resultados significativos (p < 0.05). En el presente estudio, se encontraron valores favorables con un KMO de 0.880 y una prueba de Bartlett significativa (X2= 1239.9; gl = 91; p < 0.001). En la Tabla 4, se observa que los tres factores del CI (CH, CS y CO) explican 59.856% de la varianza, resultado satisfactorio en ciencias sociales, según Hair et al. (2018).


Tabla 4.
Análisis de componentes principales. Explicación de la varianza
Elaboración propia.

En este AFE se empleó la rotación Varimax con la finalidad de identificar la separación de los factores que conforman a una variable (Ho, 2006). Los resultados de la Tabla 5 muestran que los 14 ítems se agrupan, tal como lo proponen Subramaniam y Youndt (2005), en tres factores: cinco ítems para CH; cinco ítems para CS y cuatro para CO. Se obtuvo una estructura factorial clara y simple, con la ausencia de factores de segundo orden. Los pesos de los ítems en cada factor son mayores a .545, lo que representa una clara relevancia práctica, toda vez que en cada uno de ellos están los pesos mayores de cada ítem (Hair et al., 2018).

Los valores obtenidos en las comunalidades (h2) de los ítems superaron el 0.3, valor mínimo aceptado como un elemento que interpreta significativamente al factor (Sapsford, 2006). Estos hallazgos muestran valores favorables a las pruebas realizadas para medir la validez de constructo del instrumento.


Tabla 5
Matriz de componente rotado
Elaboración propia.

El AFE permite apreciar que se está midiendo lo que debe medirse al clarificar los tres factores (CH, CS y CO) que subyacen al CI y al identificar los ítems (variables) que definen cada factor, pero también la relación entre sí, con lo cual se tamiza la estructura del constructo (Tabla 6), misma que, según Morales-Vallejo (2011), se entiende como validez lógica o aparente más que experimental, pues lo medido debe corroborarse con criterios externos. Los resultados obtenidos confirman que entre los tres factores existe una correlación estadísticamente significativa y positiva: entre el CH y el CS la correlación es fuerte, mientras que es menor entre el CS y el CO.


Tabla 6.
Correlación entre factores del CI
Nota. Elaboración propia. Estas correlaciones corresponden al modelo original. ** p <. 01 (bilateral).

Hasta ahora y a pesar de haber encontrado los tres factores esperados (CH, CS y CO), no puede concluirse que la escala es multidimensional, es decir, que mide constructos distintos y bien diferenciados. Es preciso proceder al AFC, el cual se calculó mediante la MEE, herramienta multivariante que verifica la relación de dependencia entre diferentes variables (Ho, 2006). Esta técnica es empleada para evaluar un modelo teórico (Field, 2018; Hair et al., 2018), o bien, debe ser precedida por modelos teóricos previos (Schumacker & Lomax, 2016), y pretende medir cuán adecuados (válidos) son los indicadores del instrumento para la medición del CI, en su versión en español y con una muestra de empresas latinoamericanas. Es importante señalar que la MEE busca confrontar modelos teóricos y empíricos (Hair et al., 2018; Ho, 2006), por lo que han surgido estudios que, con el fin de verificar el modelo teórico más óptimo, comparan diferentes modelos, revisando cuál arroja los mejores niveles de bondad de ajuste (Fromont et al., 2017; Gómez-Lugo et al., 2016). En este caso, se presentan seis modelos empíricos (Figura 1) y sus respectivas pruebas complementarias de bondad de ajuste, para detectar qué estructura coincide mejor con la organización teórica de CI propuesta por Subramaniam y Youndt (2005) y, con ello, avanzar en la estabilidad de los resultados de la validez del instrumento traducido.


Figura 1.
Comparación de modelos de CI con Modelamiento de Ecuaciones Estructurales
Nota. Elaboración propia. Los resultados muestran valores estandarizados. Porcentaje de explicación de la varianza por modelo: Modelo 1 (59.856%); Modelo 2 (60.552%); Modelo 3 (58.122%); Modelo 4 (65.907%); Modelo 5 (62.297%); Modelo 6 (58.321%).

Entre los indicadores que se emplean para evaluar un modelo de MEE sobresalen los siguientes, según Ho (2006): chi-cuadrado sobre los grados de libertad (X2/gl), significancia (p), índice de bondad de ajuste (GFI), índice ajustado de bondad de ajuste (AGFI), índice de Tucker-Lewis (TLI), índice de bondad de ajuste comparativo (CFI), ajuste de parsimonia (NFI), raíz del residuo cuadrático promedio de aproximación (RMSEA) y la raíz del residuo cuadrático promedio (RMR).

Se pretende que la X2 del modelo sea no significativa (Hair et al., 2018), puesto que se busca rechazar la hipótesis nula de que no existe diferencia significativa entre lo empírico y lo teórico. Al comparar los modelos obtenidos (Tabla 7), puede observarse que sólo los modelos 3 y 6 cumplen con este criterio. X2/gl debe ser menor de 3.0 (Kline, 2016; Ruiz et al., 2010), mientras que los valores aceptables para GFI, AGFI, TLI, CFI y NFI deben ser ≥ .90. Para RMSEA, resultados entre el rango 0.05-0.08 son considerados de un alto grado de aceptación; y en el caso del RMR, valores cercanos a 0 son adecuados (Ho, 2006). Es así que, luego de revisar tales resultados, es posible constatar que los modelos tuvieron valores favorables. Sin embargo, solo los dos referidos cumplen con la no significancia de la X2. Sin tratar de afirmar que estos son mejores que el modelo teórico original, es importante observar que no mejora el resultado de las covarianzas entre los factores ni cómo estos explican a sus respectivos ítems.


Tabla 7.
Comparación de índice de bondad de ajuste entre modelos
Elaboración propia.

Para demostrar la cohesión entre lo teórico y lo empírico, el AFE y AFC no pueden ser considerados como los únicos elementos para medir la idoneidad de los factores y explicar la variable latente. Por tal motivo, los presentes hallazgos deben ser contrastados con los análisis de validez convergente y discriminante.

Según Martínez-García y Martínez-Caro (2009), los análisis de validez convergente y discriminante complementan la validez de constructo. Para realizar estas pruebas se tomaron como base los seis modelos propuestos anteriormente. Puesto que no se encontraron resultados concluyentes en cuanto al modelo más óptimo para explicar la estructura del CI, es necesaria una comparación de los modelos propuestos.

En cuanto a la validez convergente, en los modelos 3, 4, 5 y 6 se obtuvieron valores superiores a 0.5 en la Varianza Promedio Extraída (AVE) de las tres dimensiones del CI (Tabla 8), lo cual es aceptable, según Hair et al. (2018). De tal forma que la validez convergente existe cuando los ítems de un factor comparten una varianza importante en común (Sapsford, 2006), y se relacionan de manera significativa (Anis et al., 2020). Por otro lado, la validez discriminante contribuye a diferenciar un factor de otro (Kerlinger & Lee, 2002).


Tabla 8.
Confiabilidad y AVE para los diferentes modelos
Nota. Elaboración propia. * Se extrajeron tres factores fijos

Para medir la validez discriminante, se empleó el criterio propuesto por Fornell y Larcker (1981), el cual se basa en que la raíz cuadrada de AVE de cada constructo (CH, CS y CO) sea mayor que la correlación entre estos. En este caso, en todos los modelos la raíz cuadrada de AVE es mayor que dicha correlación, lo cual ratifica la validez discriminante (Tabla 9). Esto también puede ser confirmado cuando las correlaciones entre los ítems de cada constructo son menores a 0.85 (Ghazali et al., 2016).


Tabla 9.
Validez Discriminante para los diferentes modelos (Criterio Fornell-Larcker)
Nota. Elaboración propia. El resultado de la raíz cuadrada de AVE se muestra (entre paréntesis). * Se extrajeron tres factores fijos. ** p < .01 (bilateral).

DISCUSIÓN

Este documento parte de la premisa de que la validez desempeña un papel fundamental dentro de la investigación, con el fin de replicar estudios en diferentes contextos y verificar la relación teórica-empírica (LeBel et al., 2017). Aunque dentro de la validación lo cuantitativo ha cobrado importancia, han surgido ciertas críticas referentes al papel que juegan las pruebas estadísticas (Markus, 2016; Martínez-García & Martínez-Caro, 2009; Squires et al., 2020). Además, no está del todo claro si el término validez se refiere al instrumento o a los indicadores. Es así que resulta necesario un análisis más crítico acerca del estudio de la validación de instrumentos (Markus, 2016; Norman, 2016), así como de la investigación del CI (Dumay, 2016; Dumay et al., 2018; Dumay et al., 2020; Dumay & Guthrie, 2019; Secundo et al., 2018). Esto podría sea posible a través de un análisis a fondo de los resultados empíricos, así como de una medición exhaustiva que involucre pruebas de diferentes tipos de validez (de constructo, convergente y discriminante).

A partir de lo anterior, se buscó responder a interrogantes orientas hacia la importancia de la estadística en la medición de la validez, la relación entre validación-instrumento y los tipos de validez. Luego de haber aplicado ciertas pruebas para medir diferentes tipos de validez de un instrumento de CI traducido y retraducido del inglés al español, es posible inferir que esta investigación: (1) se adhiere a estudios que han tomado una postura holística e integradora dentro de la comprensión de la validez de un instrumento (Bowden et al., 2021; Kim & Kang, 2019; Vargas & Castillo-Camporro, 2020; Zlatkin‐Troitschanskaia et al., 2019); (2) figura como punto medio entre los que proponen que la validez no puede ser medida con una sola prueba (Adcock & Collier, 2001), y los que sugieren que la aplicación de diversas pruebas estadísticas puede arrojar resultados contradictorios (Martínez-García & Martínez-Caro, 2009).

En un primer momento, los elementos que integran el cuestionario propuesto por Subramaniam y Youndt (2005) para medir CI mostraron un alto grado de validez de constructo en una muestra de empresas latinoamericanas (mexicanas y bolivianas), de acuerdo con los resultados del AFE donde los tres factores (CH, CO y CS) son robustos y claros, llegando a explicar casi 60% de la varianza, resultados coincidentes con lo reportado por Nguyen (2018) con una muestra de 95 empresas vietnamitas.

Además, los resultados de las comunalidades (h2) en todos los ítems superaron los valores mínimos sugeridos (0.3 según Sapsford, 2006) y que junto con la agrupación de los 14 ítems dentro de sus respectivas variables teóricas, reflejaron hallazgos adecuados para fortalecer la validez de constructo, lo cual coincide con lo reportado por Subramaniam y Youndt (2005) y Wang y Chen (2013), este último en una muestra de 164 empresas chinas. Con ello, se confirmó la pertinencia de realizar el AFC.

En cuanto al AFC del modelo original, se encontraron resultados satisfactorios dentro de los parámetros de la MEE. No obstante, el valor X2 fue significativo y, de acuerdo a Ho (2006), no es lo esperado. Es así que, tomando como referencia a estudios psicológicos (Gómez-Lugo et al., 2016; Martín-Albo et al., 2007), se comparó el modelo teórico-empírico original con otros cinco con la finalidad de verificar si dicho indicador podría mejorar. Aunque dos modelos (3 y 6) obtuvieron el resultado deseado –incluyendo un ligero aumento en la explicación de la varianza con menor número de ítems–, no se observaron mejoras en los indicadores en cuando a la relación de covarianzas, ni en el nivel de confiabilidad.

Si bien la validez de constructo debe ir acompañada de otras pruebas con la finalidad de hacer un análisis integral, luego de haber medido tanto la validez discriminante y la validez convergente del modelo original, es posible confirmar que el cuestionario traducido al español y aplicado en empresas latinoamericanas posee propiedades psicométricas para ser replicado en contextos similares, toda vez que se cuidó no privilegiar lo estadístico sobre la lógica conceptual (Mercado-Salgado et al., 2016).

Considerando que la esencia de la MEE es comparar modelos teóricos con empíricos (Ho, 2006; Ruiz et al., 2010) a partir de pruebas de bondad de los parámetros, ésta podría ser una herramienta útil para verificar la validez de constructo de una manera más exhaustiva (Fromont et al., 2017), a lo cual no escapan las ciencias económico administrativas. Para complementar esto, la comparación entre los seis modelos reflejaron que el modelo original compuesto por 14 ítems (Subramaniam & Youndt, 2005), mostró ser el más adecuado al obtener una AVE por debajo de 0.50 (validez convergente) y, al mismo tiempo, presentar congruencia (validez de constructo) con el fundamento teórico de la estructura del CI (CH, CS y CO).

Al respecto, es importante destacar que una de las principales críticas del CI es su sustento teórico (Dumay & Garanina, 2013), y su falta de madurez teórica (Si, 2019), mientras existen posturas que sostienen que el CI es una teoría en sí misma (Statsenko et al., 2013). Para la mayoría de los expertos en el tema, esta variable se sustenta en la Teoría de Recursos y Capacidades (Claver-Cortés et al., 2018; Gómez-Bayona et al., 2020; Ortega-Lapiedra et al., 2019; Radjenovic & Krstic, 2017; Vergara et al., 2016), y la Teoría Basada en el Conocimiento (Cassol et al., 2016; Kengatharan, 2019; Kianto et al., 2020; Li et al., 2019; Najar et al., 2020), las cuales explican que los activos intangibles, al poseer ciertos atributos, pueden generar ventajas competitivas sostenidas, en donde el conocimiento es el principal activo para el desarrollo de la organización. En medio de esta polémica, la comprensión del desarrollo del CI en diferentes contextos desempeña un papel trascendental. Para que esto sea posible, se requiere de instrumentos de medición confiables y válidos, en especial dentro de Latinoamérica, donde la evidencia no es vasta.

CONCLUSIONES

Entonces, ¿el instrumento utilizado para esta investigación cumple con los requisitos de validez para medir el capital intelectual? Si bien se ha avanzado en la respuesta a esta cuestión, todavía se requiere de un análisis más profundo. Coincidiendo con Ventura-León (2017), respecto a que validez se refiere de los indicadores del cuestionario, se concluye que dichos elementos son válidos para medir y explicar al CI; sin embargo, esto va más allá, pues su interpretación debe ser holística (Chin & Marcolin, 1995). Es decir, bajo este aspecto, las inferencias son varias: a) a través de las diferentes pruebas realizadas fue posible verificar que dichos elementos pueden explicar las variables latentes (validez de constructo); b) los indicadores pueden dar continuidad al fundamento teórico de CI y sus dimensiones, así como al cuestionario traducido (validez de contenido); c) los factores son independientes entre sí y se distinguen como CH, CS y CO (validez discriminante); d) y, finalmente, dichas dimensiones, además de ser diferentes, se relacionan entre sí para explicar a una variable mayor como lo es el CI (validez convergente).

Como consecuencia de contrastar los resultados del AFC (validez de constructo), del AVE (validez convergente) y del criterio Fornell-Larcker (validez discriminante) entre los seis modelos de CI, se detectaron ligeras inconsistencias, que estadísticamente podrían ser no adecuadas. Sin embargo, a lo largo de este documento se ha reiterado que lo estadístico no puede estar por encima de lo teórico (Mercado-Salgado et al., 2016; Morales-Vallejo, 2011).

La diferencia de este estudio frente a los referidos en la Tabla 1, radica en que la mayoría reportan exclusivamente el AFE y/o AFC como únicos métodos para medir la validación de constructo, lo cual denota la necesidad de hacer una revisión más exhaustiva acerca de la medición de esta variable. Es así que la presente investigación ha tratado de dar continuidad a dos perspectivas respecto a la validez en los instrumentos empleados en las ciencias administrativas. Por un lado, están quienes defienden que la validación sólo puede ser fruto de una integración de métodos debido a que no es posible validar un instrumento con un solo tipo de validación (Adcock & Collier, 2001); y, por el otro, que cuando se llevan a cabo diferentes pruebas de validación, se corre el riesgo de obtener resultados contradictorios (Martínez-García & Martínez-Caro, 2009). ¿Qué concluye este estudio respecto a la estabilidad en los resultados de la validez de constructo, convergente y discriminante?

Con los hallazgos obtenidos en esta investigación, puede concluirse que, ante las ligeras inconsistencias en los resultados de la validez de constructo, convergente y discriminante en un cuestionario para medir el CI en las empresas traducido del inglés (Subramaniam & Youndt, 2005) al español (mexicano y boliviano), prevalece la confianza de réplica en empresas latinoamericanas, toda vez que se ha tenido cuidado en el fundamento teórico y la obtención de la evidencia. En contra parte, al elegir un modelo sobre otro a partir de ligeras mejoras en ciertos indicadores estadísticos (como el aumento en la explicación de la varianza), no es argumento suficiente para decidir por un modelo u otro. Lo importante es destacar que la medición de la validez de un instrumento debe regirse bajo un enfoque crítico (Markus, 2016; Norman, 2016) y holístico (Bowden et al., 2021; Kim & Kang, 2019), es decir, privilegiar el uso del cuestionario completo sobre la elección de algunos items y/o dimensiones, aun cuando Ventura-León (2017) sostiene que la validez no es una cualidad del instrumento de medición sino de los indicadores del mismo.

Finalmente, es menester reconocer que dichos hallazgos pudieron haber sido afectados por las limitaciones del estudio. La primera de ellas se vincula al menoscabo de un análisis robusto para medir la validez de contenido, pues sólo se llevó a cabo un ejercicio de traducción-retraducción. Dicho proceso exige el cálculo V de Aiken para obtener la validez de contenido, y evaluar la representatividad de un ítem al medir una dimensión mediante el análisis de los resultados del juicio de expertos (Boluarte & Tamari, 2017), así como la prueba Alfa de Krippendorff, cuyo propósito es medir la confiabilidad inter-observadores o nivel de acuerdo entre los jueces (Hayes & Krippendorff, 2007); es decir, con esto se buscará la cuantificación del consenso de los juicios realizados por los expertos acerca de la pertinencia de los ítems (Lawshe, 1975).

Una limitación más se refiere al carácter no probabilístico de la muestra del estudio, aunque ésta sea usual en investigaciones que toman como unidad de análisis a las organizaciones (Kerlinger & Lee, 2002). Lo menos salvable es que sólo están representadas empresas de dos países (México y Bolivia), siendo necesaria la vinculación con colegas para continuar en esta línea de investigación. En otras palabras, y dado que se cumplió con los requisitos (pruebas de bondad de ajuste) para los cálculos del AFE y el AFC, es recomendable verificar si se mantiene la misma estructura en una muestra distinta (Morales-Vallejo, 2011). En esencia, para investigaciones futuras sería conveniente: (a) replicar el estudio tomando como base un muestreo probabilístico; (b) recolectar información en otros países latinoamericanos de habla hispana; (c) medir la validez concurrente y predictiva o de criterio.

Contribuciones de los autores: Conceptualización, Marco Núñez, Patricia Mercado, Karla Garduño; Curación de datos, Marco Núñez; Análisis formal, Marco Núñez, Patricia Mercado; Investigación, Marco Núñez, Patricia Mercado, Karla Garduño; Metodología, Marco Núñez, Patricia Mercado; Validación, Patricia Mercado; Visualización, Karla Garduño; Redacción del borrador original, Marco Núñez, Patricia Mercado, Karla Garduño; Redacción de revisión y edición, Marco Núñez, Patricia Mercado, Karla Garduño.

Financiamiento: Los autores agradecen al Programa de Fomento a la Investigación (PROFAPI) 2020 del Instituto Tecnológico de Sonora (ITSON), que apoyó financieramente el presente proyecto de investigación.

REFERENCIAS

Adcock, R., & Collier, D. (2001). Measurement Validity: A Shared Standard for Qualitative and Quantitative Research. American Political Science Review, 95(3), 529–546. https://doi.org/10.1017/S0003055401003100

Álvarez-Ríos, J. N., Aristizábal-Vélez, P. A., Torres-Pavas, D. M., & Jurado-Alzate, V. (2019). Validación de un instrumento para medir la vulnerabilidad en relación con la capacidad de respuesta de la comunidad ante desastres. Revista Geográfica de América Central, 1(62), 1–15. https://doi.org/10.15359/rgac.62-1.11

Álvarez, M., & Torronteras, I. (2020). Pertinencia de la retraducción de La Chatte de Colette. Sendebar, Revista de Traducción e Interpretación, 31(0), 335–353. https://doi.org/10.30827/sendebar.v31i0.9870

Andrew, D. P. S., Pedersen, P. M., & McEvoy, C. D. (2020). Research Methods and Design in Sport Management. Human Kinetics.

Anis, L., Perez, G., Benzies, K. M., Ewashen, C., Hart, M., & Letourneau, N. (2020). Convergent Validity of Three Measures of Reflective Function: Parent Development Interview, Parental Reflective Function Questionnaire, and Reflective Function Questionnaire. Frontiers in Psychology, 11, 1–14. https://doi.org/10.3389/fpsyg.2020.574719

Arancibia, A., Paredes, P., Salibe, S., & Alfaro, M. (2020). Propiedades psicométricas de la versión en español de un cuestionario para evaluar la simulación clínica en titulaciones de Ciencias de la Salud. Enfermería Clínica. https://doi.org/10.1016/j.enfcli.2020.08.003

Bakhsha, A., Afrazeh, A., & Esfahanipour, A. (2018). Identifying the Variables of Intellectual Capital and Its Dimensions with the Approach of Structural Equations in the Educational Technology of Iran. EURASIA Journal of Mathematics, Science and Technology Education, 14(5), 1663–1682. https://doi.org/10.29333/ejmste/85037

Boer, D., Hanke, K., & He, J. (2018). On Detecting Systematic Measurement Error in Cross-Cultural Research: A Review and Critical Reflection on Equivalence and Invariance Tests. Journal of Cross-Cultural Psychology, 49(5), 713–734. https://doi.org/10.1177/0022022117749042

Boluarte, A., & Tamari, K. (2017). Validez de contenido y confiabilidad inter-observadores de Escala Integral Calidad de Vida. Revista de Psicología, 35(2), 641–666. https://doi.org/10.18800/psico.201702.009

Bontis. (2003). Intellectual Capital Disclosure in Canadian Corporations. Journal of Human Resource Costing & Accounting, 7(1), 9–20. https://doi.org/10.1108/eb029076

Bontis, N. (1998). Intellectual capital: an exploratory study that develops measures and models. Management Decision, 36(2), 63–76. https://doi.org/10.1108/00251749810204142

Bowden, J. L.-H., Tickle, L., & Naumann, K. (2021). The four pillars of tertiary student engagement and success: a holistic measurement approach. Studies in Higher Education, 46(6), 1207–1224. https://doi.org/10.1080/03075079.2019.1672647

Cabrita, M. D. R., & Bontis, N. (2008). Intellectual capital and business performance in the Portuguese banking industry. International Journal of Technology Management, 43(1/2/3), 212. https://doi.org/10.1504/IJTM.2008.019416

Carrillo-Álvarez, E., Villalonga-Olives, E., Riera-Romaní, J., & Kawachi, I. (2019). Development and validation of a questionnaire to measure family social capital. SSM - Population Health, 8, 100453. https://doi.org/10.1016/j.ssmph.2019.100453

Carrillo-Avalos, B. A., Sánchez Mendiola, M., & Leenen, I. (2020). El concepto moderno de validez y su uso en educación médica. Investigación En Educación Médica, 9(33), 98–106. https://doi.org/10.22201/facmed.20075057e.2020.33.19216

Cassol, A., Gonçalo, C. R., & Ruas, R. L. (2016). Redefining the Relationship between Intellectual Capital and Innovation: The Mediating Role of Absorptive Capacity. BAR - Brazilian Administration Review, 13(4), 1–25. https://doi.org/10.1590/1807-7692bar2016150067

Chahal, H., & Bakshi, P. (2016). Measurement of Intellectual Capital in the Indian Banking Sector. Vikalpa: The Journal for Decision Makers, 41(1), 61–73. https://doi.org/10.1177/0256090916629253

Chaharbaghi, K., & Cripps, S. (2006). Intellectual capital: direction, not blind faith. Journal of Intellectual Capital, 7(1), 29–42. https://doi.org/10.1108/14691930610639750

Chin, W. W., & Marcolin, B. (1995). The holistic approach to construct validation in is research: examples of the interplay between theory and measurement 1. In D. Compeau (ed.). 23rd Conference, IS Proceedings.

Clark, L. A., & Watson, D. (2019). Constructing validity: New developments in creating objective measuring instruments. Psychological Assessment, 31(12), 1412–1427. https://doi.org/10.1037/pas0000626

Claver-Cortés, E., Zaragoza-Sáez, P., & González Illescas, M. (2018). Intellectual capital management: An approach to organizational practices in Ecuador. Intangible Capital, 14(2), 270–285. https://doi.org/10.3926/ic.1158

Corral, Y. (2017). Validez y fiabilidad en investigaciones cualitativas. ARJÉ. Revista de Postgrado FaCE-UC, 11(20), 196–209. http://www.arje.bc.uc.edu.ve/arj20/art19.pdf

Costamagna, R., Idrovo, S., & Mendi, P. (2019). Initial informality as an obstacle to intellectual capital acquisitions. Journal of Intellectual Capital, 20(4), 472–487. https://doi.org/10.1108/JIC-12-2018-0218

Creswell, J. W., & Creswell, J. D. (2017). Research design: Qualitative, quantitative and mixed methods approaches (5th ed.). SAGE Publications Inc.

Daou, A., Karuranga, E., & Su, Z. (2014). Towards a better understanding of intellectual capital in Mexican SMEs. Journal of Intellectual Capital, 15(2), 316–332. https://doi.org/10.1108/JIC-08-2013-0092

Dorantes-Nova, J. A., Hernández-Mosqueda, J. S., & Tobón-Tobón, S. (2016). Juicio de expertos para la validación de un instrumento de medición del síndrome de burnout en la docencia. Ra Ximhai, 12(6), 327–346. https://www.redalyc.org/pdf/461/46148194023.pdf

Dumay, J., & Garanina, T. (2013). Intellectual capital research: a critical examination of the third stage. Journal of Intellectual Capital, 14(1), 10–25. https://doi.org/10.1108/14691931311288995

Dumay, J., Guthrie, J., & Rooney, J. (2018). The critical path of intellectual capital. In J. Guthrie, J. Dumay, F. Ricceri, & C. Nielsen (Eds.), The Routledge companion to intellectual capital: Frontiers of research, practice and knowledge (pp. 21–39). Routledge.

Dumay, J. (2016). A critical reflection on the future of intellectual capital: from reporting to disclosure. Journal of Intellectual Capital, 17(1), 168–184. https://doi.org/10.1108/JIC-08-2015-0072

Dumay, J., & Guthrie, J. (2019). Reflections on interdisciplinary critical intellectual capital accounting research. Accounting, Auditing & Accountability Journal, 32(8), 2282–2306. https://doi.org/10.1108/AAAJ-08-2018-3636

Dumay, J., Guthrie, J., & Rooney, J. (2020). Being critical about intellectual capital accounting in 2020: An overview. Critical Perspectives on Accounting, 70, 102185. https://doi.org/10.1016/j.cpa.2020.102185

Esparza, I. G., Nuñez, M. A., Madrigal, B. E., Atila, J. D., & Banegas, R. A. (2019). Activos intangibles en las organizaciones. Casos de Estudio en el Norte de México. Universidad Autónoma Gabriel René Moreno.

Espinoza, E., & Garcés, D. (2016). Validación cultural de un instrumento para medir el nivel de conocimiento de bioestadística. Revista Medica Herediana, 27(3), 152–161. https://doi.org/10.20453/rmh.v27i3.2933

Ferenhof, H. A., Durst, S., Zaniboni Bialecki, M., & Selig, P. M. (2015). Intellectual capital dimensions: state of the art in 2014. Journal of Intellectual Capital, 16(1), 58–100. https://doi.org/https://doi.org/10.1108/JIC-02-2014-0021

Fernández-Jardón, C. M., & Martos, M. S. (2016). Capital intelectual y ventajas competitivas en pymes basadas en recursos naturales de Latinoamérica. INNOVAR. Revista de Ciencias Administrativas y Sociales, 26(60), 117–132. https://www.redalyc.org/articulo.oa?id=81844804008

Field, A. (2018). Discovering statistics using IBM SPSS statistics (5th ed.). SAGE Publications Ltd.

Flake, J. K., Pek, J., & Hehman, E. (2017). Construct Validation in Social and Personality Research. Social Psychological and Personality Science, 8(4), 370–378. https://doi.org/10.1177/1948550617693063

Fornell, C., & Larcker, D. F. (1981). Evaluating Structural Equation Models with Unobservable Variables and Measurement Error. Journal of Marketing Research, 18(1), 39–50. https://doi.org/10.1177/002224378101800104

Foster, J. J. (2006). Factor Analysis. In Jupp (ed.). The SAGE Dictionary of Social Research Methods (pp. 114–115). SAGE Publications Inc.

Fromont, A., Haddad, S., Heinmüller, R., Dujardin, B. T., & Casini, A. (2017). Exploring the validity of scores from the Rosenberg Self-Esteem Scale (RSES) in Burundi: A multi-strategy approach. Journal of Psychology in Africa, 27(4), 316–324. https://doi.org/10.1080/14330237.2017.1347751

García, T. (2018). La validación de instrumentos de medida de constructos hipotéticos en contabilidad y control de gestión. In R. M. Dasí & M. A. Ruiz (Eds.), Retos de la contabilidad y la auditoría en la economía actual (pp. 283–296). Universidad de Valencia.

Garcimartin, P., Pardo-Cladellas, Y., Verdú-Rotellar, J.-M., Delgado-Hito, P., Astals-Vizcaino, M., & Comin-Colet, J. (2019). Adaptación transcultural al español del cuestionario Patient empowerment in long-term conditions. Atención Primaria, 51(1), 24–31. https://doi.org/10.1016/j.aprim.2017.09.009

Ghazali, N. H., Norazilawati, A., Hamzah, M., & Norfishah, M. R. (2016). Confirmatory Factor Analysis of the School-Based Assessment Evaluation among Teachers. Mediterranean Journal of Social Sciences, 7(5), 114–123. https://doi.org/10.5901/mjss.2016.v7n5p114

Gómez-Bayona, L., Londoño-Montoya, E., & Mora-González, B. (2020). Modelos de capital intelectual a nivel empresarial y su aporte en la creación de valor. Revista CEA, 6(11), 165–184. https://doi.org/10.22430/24223182.1434

Gómez-Lugo, M., Espada, J. P., Morales, A., Marchal-Bertrand, L., Soler, F., & Vallejo-Medina, P. (2016). Adaptation, Validation, Reliability and Factorial Equivalence of the Rosenberg Self-Esteem Scale in Colombian and Spanish Population. The Spanish Journal of Psychology, 19(E66), 1–12. https://doi.org/10.1017/sjp.2016.67

Gregorio, A. (2017). Problemas de traducción, detección y descripción: un estudio longitudinal en la formación de traductores. Revista Digital de Investigación En Docencia Universitaria, 11(2), 25–49. https://doi.org/10.19083/ridu.11.552

Guyon, H. (2018). The Fallacy of the Theoretical Meaning of Formative Constructs. Frontiers in Psychology, 9, 1–4. https://doi.org/10.3389/fpsyg.2018.00179

Hair, J. F., Babin, B. J., Anderson, R. E., & Black, W. C. (2018). Multivariate Data Analysis. Cengage.

Hawkins, M., Elsworth, G. R., & Osborne, R. H. (2018). Application of validity theory and methodology to patient-reported outcome measures (PROMs): building an argument for validity. Quality of Life Research, 27(7), 1695–1710. https://doi.org/10.1007/s11136-018-1815-6

Hayes, A. F., & Krippendorff, K. (2007). Answering the Call for a Standard Reliability Measure for Coding Data. Communication Methods and Measures, 1(1), 77–89. https://doi.org/10.1080/19312450709336664

Ho, R. (2006). Handbook of univariate and multivariate data analysis with IBM SPSS. Taylor & Francis Group, LLC.

Inkinen, H. (2015). Review of empirical research on intellectual capital and firm performance. Journal of Intellectual Capital, 16(3), 518–565. https://doi.org/10.1108/JIC-01-2015-0002

Jardon, C. M., & Catalina, N. (2015). Intellectual capital as a source of growth in subsistence small businesses in Latin America. International Journal of Entrepreneurship and Small Business, 26(1), 96–115. https://doi.org/10.1504/IJESB.2015.071322

Jupp, V. (2011). The SAGE Dictionary of Social Research Methods. SAGE Publications Ltd. https://doi.org/10.4135/9780857020116

Kengatharan, N. (2019). A knowledge-based theory of the firm. International Journal of Manpower, 40(6), 1056–1074. https://doi.org/10.1108/IJM-03-2018-0096

Kerlinger, F. N., & Lee, H. B. (2002). Investigación del comportamiento. McGraw-Hill Interamericana.

Kianto, A., Ritala, P., Vanhala, M., & Hussinki, H. (2020). Reflections on the criteria for the sound measurement of intellectual capital: A knowledge-based perspective. Critical Perspectives on Accounting, 70, 1–15. https://doi.org/10.1016/j.cpa.2018.05.002

Kim, C. H., & Kang, K.-A. (2019). The validity and reliability of the Healthy Lifestyle Screening Tool. Physical Therapy Rehabilitation Science, 8(2), 99–111. https://doi.org/10.14474/ptrs.2019.8.2.99

Kline, R. B. (2016). Principles and Practice of Structural Equation Modeling (4th ed.). The Guilford Press.

Krabbe, P. F. M. (2017). The Measurement of Health and Health Status: Concepts, Methods and Applications from a Multidisciplinary Perspective. Elsevier. https://doi.org/10.1016/C2013-0-19200-8

Kyriazos, T. A. (2018). Applied Psychometrics: Writing-Up a Factor Analysis Construct Validation Study with Examples. Psychology, 9(11), 2503–2530. https://doi.org/10.4236/psych.2018.911144

Larroulet, C. (2021). Valid for What? On the Very Idea of Unconditional Validity. Philosophy of the Social Sciences, 51(2), 151–175. https://doi.org/10.1177/0048393120971169

Lawshe, C. H. (1975). A quantitative approach to content validity. Personnel Psychology, 28(4), 563–575. https://doi.org/10.1111/j.1744-6570.1975.tb01393.x

LeBel, E. P., Berger, D., Campbell, L., & Loving, T. J. (2017). Falsifiability is not optional. Journal of Personality and Social Psychology, 113(2), 254–261. https://doi.org/10.1037/pspi0000106

Li, Y., Song, Y., Wang, J., & Li, C. (2019). Intellectual Capital, Knowledge Sharing, and Innovation Performance: Evidence from the Chinese Construction Industry. Sustainability, 11(9), 1–20. https://doi.org/10.3390/su11092713

Manterola, C., Grande, L., Otzen, T., García, N., Salazar, P., & Quiroz, G. (2018). Confiabilidad, precisión o reproducibilidad de las mediciones. Métodos de valoración, utilidad y aplicaciones en la práctica clínica. Revista Chilena de Infectología, 35(6), 680–688. https://doi.org/10.4067/S0716-10182018000600680

Markus, K. A. (2016). Causal Measurement Models: Can Criticism Stimulate Clarification? Measurement: Interdisciplinary Research and Perspectives, 14(3), 110–113. https://doi.org/10.1080/15366367.2016.1224965

Martín-Albo, J., Núñez, J. L., Navarro, J. G., & Grijalvo, F. (2007). The Rosenberg Self-Esteem Scale: Translation and Validation in University Students. The Spanish Journal of Psychology, 10(2), 458–467. https://doi.org/10.1017/S1138741600006727

Martín-de Castro, G., Díez-Vial, I., & Delgado-Verde, M. (2019). Intellectual capital and the firm: evolution and research trends. Journal of Intellectual Capital, 20(4), 555–580. https://doi.org/10.1108/JIC-12-2018-0221

Martínez-García, J. A., & Martínez-Caro, L. (2009). La validez discriminante como criterio de evaluación de escalas. ¿teoría o estadística? Universitas Psychologica, 8(1), 27–36. https://revistas.javeriana.edu.co/index.php/revPsycho/article/view/224

Mejía, Y., Rodríguez, M. L., & Hernández, A. (2014). Importancia estratégica del capital intelectual en la industria manufacturera de la región sureste del estado de Coahuila, México. Revista Internacional Administración & Finanzas, 7(4), 93–106.

Mercado-Salgado, P., Gil-Monte, P., & Cernasz-Ortiz, D. A. (2016). Validez Inicial de una Escala de Medición del Capital Intelectual en Universidades. Universitas Psychologica, 15(2), 109-119. https://doi.org/10.11144/Javeriana.upsy15-2.viem

Moafian, F., Ostovar, S., Griffiths, M. D., & Hashemi, M. (2019). The Construct Validity and Reliability of the ‘Characteristics of Successful EFL Teachers. Porta Linguarum, 31, 53–73.

Montes, C. (2010). 25 issues of Intangible Capital: Bibliometric analysis. Intangible Capital, 6(2), 300–311. https://doi.org/10.3926/ic.2010.v6n2.p300-311

Morales-Vallejo, P. (2011). El análisis factorial en la construcción e interpretación de tests, escalas y cuestionarios. Universidad Pontificia Comillas.

Muñiz, J., & Fonseca-Pedrero, E. (2019). Diez pasos para la construcción de un test. Psicothema, 31(1), 7–16. https://doi.org/10.7334/psicothema2018.291

Najar, T., Dhaouadi, K., & Ben Zammel, I. (2020). Intellectual Capital Impact on Open Innovation: The Case of Technology-Based Sectors in Tunisia. Journal of Innovation Economics & Management, 32(2), 75–106. https://doi.org/10.3917/jie.032.0075

Nguyen, D. Q. (2018). The impact of intellectual capital and knowledge flows on incremental and radical innovation. Asia-Pacific Journal of Business Administration, 10(2/3), 149–170. https://doi.org/10.1108/APJBA-03-2018-0044

Nievas, B. J., García, S., Fernández, A. M., Bonillo, A., & Parrón, T. (2020). Validation of a Questionnaire Developed to Evaluate a Pediatric eHealth Website for Parents. International Journal of Environmental Research and Public Health, 17(8), 1–10. https://doi.org/10.3390/ijerph17082671

Norman, G. (2016). Is psychometrics science? Advances in Health Sciences Education, 21(4), 731–734. https://doi.org/10.1007/s10459-016-9705-6

Orçan, F. (2018). Exploratory and Confirmatory Factor Analysis: Which One to Use First? Eğitimde ve Psikolojide Ölçme ve Değerlendirme Dergisi, 9(4). https://doi.org/10.21031/epod.394323

Ortega-Lapiedra, R., Marco-Fondevila, M., Scarpellini, S., & Llena-Macarulla, F. (2019). Measurement of the Human Capital Applied to the Business Eco-Innovation. Sustainability, 11(12), 3263. https://doi.org/10.3390/su11123263

Pedro, E., Leitão, J., & Alves, H. (2018). Back to the future of intellectual capital research: a systematic literature review. Management Decision, 56(11), 2502–2583. https://doi.org/10.1108/MD-08-2017-0807

Popescu, C. R. G. (2019). “Intellectual Capital”: Major Role, Key Importance and Decisive Influences on Organizations’ Performance. Journal of Human Resources Management Research, 509857, 1–17.

Radjenovic, T., & Krstic, B. (2017). Intellectual capital in the theory of the firm. Ekonomika, 63(4), 13–27. https://doi.org/10.5937/ekonomika1704013R

Rammstedt, B., & Bluemke, M. (2019). Measurement Instruments for the Social Sciences. Measurement Instruments for the Social Sciences, 1(4), 1–3. https://doi.org/10.1186/s42409-018-0003-3

Ravid, R. (2020). Practical Statistics for Educators. Rowman & Littlefield Publishers.

Rodríguez, J. M., & Rubio, L. (2006). Propuesta de creación de un modelo de capital intelectual hotelero latinoamericano. Estudios Turísticos, 167, 55–90.

Rojas-Ospin, T., & Valencia-Serrano, M. (2019). Adaptación y Validación de un Cuestionario Sobre Estrategias de Autorregulación de la Motivación en Estudiantes Universitarios. Psykhe (Santiago), 28(1), 1–15. https://doi.org/10.7764/psykhe.28.1.1128

Rosendo, V. (2018). Investigación de mercados: Aplicación al marketing estratégico empresarial. ESIC.

Ruiz, M. A., Pardo, A., & San Martín, R. (2010). Modelos de ecuaciones estructurales. Papeles Del Psicólogo, 31(1), 34–45. http://www.papelesdelpsicologo.es/pdf/1794.pdf

Sapsford, R. (2006). Validity of Measurement. In V. Jupp (Ed.), The SAGE Dictionary of Social Research Methods (pp. 314–315). SAGE Publications, Ltd. https://doi.org/10.4135/9780857020116.n217

Schumacker, R. E., & Lomax, R. G. (2016). A Beginner’s Guide to Structural Equation Modeling (4th ed.). Routledge.

Secundo, G., Massaro, M., Dumay, J., & Bagnoli, C. (2018). Intellectual capital management in the fourth stage of IC research. Journal of Intellectual Capital, 19(1), 157–177. https://doi.org/10.1108/JIC-11-2016-0113

Serenko, A., & Bontis, N. (2013). Investigating the current state and impact of the intellectual capital academic discipline. Journal of Intellectual Capital, 14(4), 476–500. https://doi.org/10.1108/JIC-11-2012-0099

Serenko, A., Bontis, N., Booker, L., Sadeddin, K., & Hardie, T. (2010). A scientometric analysis of knowledge management and intellectual capital academic literature (1994‐2008). Journal of Knowledge Management, 14(1), 3–23. https://doi.org/10.1108/13673271011015534

Si, X. (2019). Literature Review on the Relationship between Intellectual Capital and Enterprise Performance. Modern Economy, 10(02), 386–398. https://doi.org/10.4236/me.2019.102026

Silalahi, M., Rafli, Z., & Rasyid, Y. (2018). The Analysis of Errors in Translation of Scientific Text from English to Indonesian Language. JETL (Journal Of Education, Teaching and Learning), 3(1), 23–27. https://doi.org/10.26737/jetl.v1i1.456

Solimun, S., & Fernandes, A. A. R. (2017). Investigation of instrument validity. International Journal of Law and Management, 59(6), 1203–1210. https://doi.org/10.1108/IJLMA-09-2016-0076

Soriano, A. (2014). Diseño y validación de instrumentos de medición. Diá-Logos, 14, 19–40. https://doi.org/10.5377/dialogos.v0i14.2202

Squires, A., Sadarangani, T., & Jones, S. (2020). Strategies for overcoming language barriers in research. Journal of Advanced Nursing, 76(2), 706–714. https://doi.org/10.1111/jan.14007

Statsenko, L., Bozhko, L., Prause, G., & Ireland, V. (2013). Critical issues of intellectual capital theory in transitional countries. Global Business Perspectives, 1(4), 515–537. https://doi.org/10.1007/s40196-013-0030-7

Stone, C. (2019). A Defense and Definition of Construct Validity in Psychology. Philosophy of Science, 86(5), 1250–1261. https://doi.org/10.1086/705567

Subramaniam, M., & Youndt, M. A. (2005). The Influence of Intellectual Capital on the Types of Innovative Capabilities. Academy of Management Journal, 48(3), 450–463. https://doi.org/10.5465/AMJ.2005.17407911

Valdés, M. A., García, F. I., Torres, G. M., Urías, M., & Grijalva, C. S. (2019). Medición en investigación educativa con apoyo del SPSS y el AMOS. Clave Editorial.

Vargas, G., & Castillo-Camporro, A.-S. (2020). A Holistic Approach for Measuring Quality of Life in “La Condesa” Neighbourhood in Mexico City. ILCEAR, Revue de l’Institut Des Langues et Cultures d’Europe, Amérique, Afrique, Asie et Australie, 39, 1–28. https://doi.org/10.4000/ilcea.10063

Ventura-León, J. L. (2017). ¿Existen los instrumentos validos? Un debate necesario. Gaceta Sanitaria, 31(1), 71. https://doi.org/10.1016/j.gaceta.2016.09.007

Vergara, M. del C., Restrepo, F., Ocampo, O. L., Naranjo, C. G., & Martínez, E. (2016). Teoría de recursos y capacidades para evaluar la función sustantiva de investigación en instituciones de educación superior. Revista Educación y Desarrollo Social, 10(1), 58–77.

Wang, D., & Chen, S. (2013). Does intellectual capital matter? High-performance work systems and bilateral innovative capabilities. International Journal of Manpower, 34(8), 861–879. https://doi.org/10.1108/IJM-07-2013-0167

Youndt, M. A., Subramaniam, M., & Snell, S. A. (2004). Intellectual Capital Profiles: An Examination of Investments and Returns. Journal of Management Studies, 41(2), 335–361. https://doi.org/10.1111/j.1467-6486.2004.00435.x

Zlatkin‐Troitschanskaia, O., Shavelson, R. J., Schmidt, S., & Beck, K. (2019). On the complementarity of holistic and analytic approaches to performance assessment scoring. British Journal of Educational Psychology, 89(3), 468–484. https://doi.org/10.1111/bjep.12286

Información adicional

Clasificación JEL:: O34, C19.



Buscar:
Ir a la Página
IR
Visor de artículos científicos generados a partir de XML-JATS4R por