¿Qué es la química teórica?


José Luis Gázquez Mateos / Marcelo Galván / Alberto Vela


La comprensión del mundo que nos rodea implica, entre otros muchos aspectos, el estudio de la materia, entendida ésta como aquello que ocupa una porción del espacio y que tiene una determinada masa. La materia puede existir en distintos estados de agregación, macroscópicamente distinguibles, y normalmente integrada por varias sustancias que tienen, cada una de ellas, una composición fija y propiedades que la distinguen.

Las sustancias están formadas por elementos, por compuestos o por ambos. Los compuestos son sustancias que se pueden descomponer en dos o más elementos por medios químicos. Los elementos son las sustancias fundamentales a partir de los cuales se compone toda la materia. Desde un punto de vista microscópico los compuestos están constituidos por combinaciones químicas de varios átomos de uno o más elementos que denominamos moléculas. Una molécula, a su vez, está constituida por los núcleos y los electrones de los átomos.

En general, podríamos afirmar que la química se refiere al estudio de las sustancias, su composición, estructura, propiedades y transformaciones. La química teórica tiene como objetivo explicar el comportamiento de las sustancias que observamos a nivel macroscópico, a partir
de las interacciones fundamentales que ocurren entre los electrones y los núcleos. Para ello utiliza la física cuántica, para determinar las propiedades estáticas y dinámicas de las moléculas aisladas o conjuntos relativamente pequeños de moléculas, y la física estadística, para conectar estas propiedades de nivel microscópico con las propiedades que se observan a nivel macroscópico, en cuyo caso el número de moléculas presentes es del orden del número de Avogadro, 6.022x1023.

Con el desarrollo de la química teórica en el siglo xx y de la tecnología computacional, hoy
es posible diseñar moléculas casi de la misma manera como un ingeniero civil diseña un puente o un rascacielos y un ingeniero mecánico, un automóvil. Para diseñar un coche o un edificio
se requiere de las leyes básicas de la física clásica para calcular los esfuerzos a los cuales estarán sujetos los diferentes elementos que constituyen al objeto que estamos diseñando. Equilibrar
y distribuir las fuerzas en los elementos es una de las reglas de construcción que tenemos
que seguir para lograr un diseño estable. En épocas anteriores al advenimiento de la mecánica cuántica, la química tuvo que elaborar modelos que pudieran explicar la estructura de las moléculas. Modelos que, en muchos casos, estaban alejados de las leyes fundamentales de la física. Sorprendentemente, aun sin el sustento de las leyes fundamentales que rigen al mundo microscópico, para poderse explicar las observaciones del comportamiento de la materia y sus cambios, los químicos desarrollaron estos modelos con una extraordinaria visión, adelantándose a muchos conceptos que años más tarde la física avalaría. Hoy tenemos que apreciar con asombro y admiración la gran capacidad deductiva de los científicos de los siglos xviii y xix como Lavoisier, Proust, Dalton, Berzelius, Avogadro, Kekulé, Vant Hoff, Le Bel, Woehler y Faraday, quienes desprovistos de las técnicas modernas para escudriñar el mundo microscópico, pero rebosantes de curiosidad, meticulosa observación, cuidadosos registros y una impresionante intuición, sentaron las bases del diseño molecular con el cual se disparó la investigación química del siglo xx. El advenimiento de la mecánica cuántica, como la teoría de la física capaz de proporcionarnos la mejor herramienta predictiva del mundo atómico y subatómico, marcó de manera definitiva el desarrollo de los modelos de la química para la predicción de las estructuras y propiedades moleculares. La celeridad con la cual esta rama de la física se utilizó para describir a los átomos y a las moléculas queda de manifiesto al considerar que la mecánica cuántica, como hoy la conocemos, nace en 1926 y bastó un año para que, en 1927, Fritz London y Walter Heitler la aplicaran para explicar a nivel microscópico y fundamental la estabilidad de la molécula más sencilla que puede existir, la molécula de hidrógeno. Con este trabajo nace la química cuántica o la aplicación de los axiomas y métodos de la mecánica cuántica para estudiar y predecir las propiedades de las moléculas, tanto aisladas como cuando participan en una reacción química. En principio, ya no había más que hacer; para muchos, la explicación de los fenómenos de la química y la biología sólo tenía que esperar a los desarrollos pertinentes de la física matemática para que, por medio de la mecánica cuántica, se pudiera alcanzar una comprensión integral y cabal de los fenómenos químicos y biológicos. Es importante reconocer que esta postura arrogante no contribuye al acercamiento entre estas disciplinas. La afirmación es correcta pero lo que no contempla es el alto grado de complejidad implícito en los fenómenos químicos y biológicos. ¿Por qué resulta complicado o difícil aplicar la mecánica cuántica a la química o a la biología? La respuesta está en el número de partículas presentes en los sistemas químicos y biológicos, así como en la multitud de escalas tanto espaciales como temporales. La molécula neutra más sencilla que existe, la molécula de hidrógeno, está formada por cuatro partículas: dos núcleos y dos electrones, donde suponemos que los núcleos son puntuales, y por lo tanto no consideramos que los protones tienen estructura (están formados por tres quarks). Puede parecer increíble, pero este sistema tan “sencillo” ya no puede resolverse de manera exacta en la mecánica cuántica. Pero la química no podía esperar a que la mecánica cuántica tuviera los métodos necesarios para estudiar su objeto de interés y, en consecuencia, se encuentra en una encrucijada entre esperar a tener una descripción rigurosa o generar modelos propios, no necesariamente con un apoyo sólido en la física, pero capaces de explicar la diversidad de comportamientos observados, es decir, recurrir a la fenomenología. Esto nos explica los derroteros que tomaron tanto la química en general como la química cuántica. Un punto muy importante a resaltar, y para apreciar aún más las contribuciones de los visionarios químicos de los siglos anteriores al siglo xx, es que el concepto más fundamental de esta disciplina, la molécula, no era universalmente aceptado. Hoy nos resulta casi inconcebible pensar en el avance de la química sin la noción de molécula.


Moléculas y el enlace químico


Por siglos, la química recurrió a la elaboración de modelos no sólo para intentar entender qué es lo que ocurre cuando la materia se transforma, el propósito de la química, sino también para tener un marco conceptual de referencia con elementos estructurales que permitan tanto la predicción de geometrías moleculares, como el pronóstico de sus propiedades. Mucho antes de que la física le diera sustento sólido y formal al origen de la estructura molecular, la química tuvo que desarrollar modelos para apoyar la cadena de razonamientos molécula ◊ estructura ◊ propiedad. Históricamente, el descubrimiento de que los elementos se combinan en proporciones definidas llevó a la elaboración de modelos y reglas para formar nuevas estructuras con propiedades específicas. Para ilustrar esto, tomemos el siguiente caso de la historia de la química. En 1849, y en uno de los más conocidos experimentos de la química orgánica, Louis Pasteur, en un tour de force, analizó bajo el microscopio los cristales de ácido tartárico y descubrió que había dos tipos, clasificación que surge de la observación de cómo se comporta cada cristal ante el paso de la luz. Con este descubrimiento, Pasteur fincó el inicio de una rama muy importante de la química: la estereoquímica. La observación es inobjetable, pero ¿cómo podemos explicar el fenómeno? ¿Cómo es posible que una misma sustancia química, con exactamente el mismo tipo y número de átomos produzca cristales con propiedades ópticas tan dramáticamente distintas? La respuesta tuvo que esperar, primero, a que en 1857 el alemán de origen checo, Friedrich August Kekulé von Stradonitz, propusiera que el átomo de carbono, cuando se encuentra en un compuesto, puede tener hasta cuatro valencias, entendiendo por valencia la capacidad de combinación de un átomo. Con esta regla básica de combinación de los átomos en las moléculas, un año después tanto Kekulé como el escocés Archibald Scott Couper proponen que los átomos de carbono pueden unirse unos con otros para formar cadenas, pero respetando la tetravalencia de este átomo. Por primera vez, ambos científicos representan al enlace químico como una línea que une a los átomos. Nace así uno de los más arraigados, controvertidos y fundamentales paradigmas de la química, el del enlace o interacción química. Años más tarde, en 1865, en una de las leyendas oníricas más famosa de la ciencia, Kekulé sueña con los átomos de carbono del benceno, descubierto en 1825 por el gran científico inglés Michael Faraday. Los visualiza como una serpiente que se está mordiendo la cola, esto es, se imagina al benceno como un anillo.

En 1873 y de manera independiente, el fisicoquímico holandés ganador del primer premio Nobel en química en 1901, Jacobus Henricus van’t Hoff, y el químico francés Joseph Achille Le Bel, le abren la tercera dimensión a la química al proponer que las cuatro valencias del átomo de carbono, su tetravalencia, se orientan con una simetría tetraédrica, el famoso tetraedro del metano CH4. Esta propuesta o modelo nos permite entender la observación de Pasteur sobre el comportamiento óptico del ácido tartárico. Estas son un ejemplo de las reglas o modelos a las que hacíamos referencia al inicio de este párrafo. Aún hoy, estas reglas de construcción son paradigmas básicos de la química estructural gracias a los cuales nacieron y se desarrollaron áreas tan importantes de la química como la química orgánica de polímeros y la estereoquímica. La idea genial de van’t Hoff y Le Bel inmediatamente explica el hecho de que pueden existir dos compuestos con el mismo tipo y número de átomos, esto es, con composición idéntica, pero con una disposición espacial diferente. Dos compuestos con esta característica se les denomina estereoisómeros, y si sus arreglos son imágenes especulares una de la otra, entonces se les llama enantiómeros. Vale la pena señalar que la estereoquímica juega un papel primordial en nuestra comprensión actual de muchos fenómenos biológicos, pues aunque todavía no entendemos todas las razones, es una evidencia incontrovertible que la vida tiene una preferencia por la mano izquierda. Un átomo de carbono que se une a cuatro grupos diferentes, como se muestra en la siguiente figura, puede tener las dos disposiciones espaciales que son imágenes especulares una de la otra. Con estos elementos es posible entender que los cristales que Pasteur observó corresponden al ácido tartárico levo y dextro, compuestos con exactamente el mismo número y tipo de átomos pero que son imágenes especulares una de otra, las cuales no pueden superponerse a menos que se rompan y formen algunos de sus enlaces.

La siguiente contribución importante en la química estructural es la del químico suizo Alfred Werner, quien en 1893 propuso la manera correcta de unión de metales de transición con ligantes neutros y aniónicos. En su modelo, modifica o amplía el concepto de valencia,
introduciendo las valencias primarias (estados de oxidación) y las secundarias (número
de coordinación). La relevancia del trabajo de Werner se reconoció al otorgársele el premio Nobel de química en 1913, ya que su trabajo abrió el tremendamente importante campo de la química de coordinación, en el cual se sustenta el diseño de compuestos anticancerígenos, como el cis-platino, o de catalizadores. De esta manera, el arribo del siglo xx se encuentra con una química capaz de sintetizar muchos compuestos muy importantes para la sociedad contemporánea y con una serie de modelos que marcaban algunas pautas para intentar entender la razón por la cual los átomos se unen como lo hacen para formar las moléculas que nos interesan. No podemos cerrar esta rápida revisión de la historia del enlace sin mencionar las contribuciones del químico estadounidense Gilbert Newton Lewis, quien acercó las nociones de enlace o unión química con una visión microscópica. Desde 1902, Lewis al tratar de explicarles a sus estudiantes la razón por la cual los átomos se combinan para formar las moléculas, es decir, al enseñar su concepción de la valencia, empezó a dibujar lo que llamó el átomo cúbico como una representación de la capacidad de combinación de los átomos. Lewis propuso que los vértices del cubo eran posiciones donde se encontraban los electrones de los átomos. Al usar un cubo es posible entender cómo se combinan los elementos de los ocho grupos representativos de la tabla periódica, desde los alcalinos hasta los halógenos, y da origen al famoso modelo del octeto para explicar las leyes de la combinación química. Tras catorce años de trabajar y desarrollar su modelo, finalmente en 1916 Lewis publica uno de los artículos clásicos sobre el enlace químico cuyo título lo dice todo: “The atom and the molecule”, el átomo y la molécula. Una de las ideas que maneja Lewis en este artículo, y en su modelo, es que la unión química se debe, fundamentalmente, a la formación de pares de electrones, es decir, al enlace o unión covalente. Vale la pena resaltar que las ideas detrás de la estructura electrónica de los átomos y de cómo los electrones se transfieren y combinan para formar enlaces químicos, es un modelo que antecede a la mecánica cuántica moderna, aspecto que debe apreciarse en toda su magnitud, pues habrán de pasar diez años más, hasta 1926, para entender el origen de la cuantización de la energía en la estructura electrónica de los átomos.


La ecuación de Schrödinger
y la energía electrónica


En efecto, cuando consideramos las ecuaciones fundamentales para describir el movimiento de los cuerpos de tamaño microscópico, resulta que las leyes de Newton, que pertenecen a lo que denominamos la física clásica, no se cumplen. Esto se debe a que la longitud de onda de De Broglie, asociada a toda partícula, tiene un valor prácticamente despreciable cuando se trata de objetos de tamaño macroscópico, pero tiene un valor apreciable cuando se trata de objetos de tamaño microscópico. Así, las características ondulatorias de una partícula macroscópica no influyen en su movimiento, y éste puede ser descrito resolviendo la ecuación correspondiente a la segunda ley de Newton (suma de fuerzas que actúan sobre una partícula igual al producto de la masa de ésta por la aceleración). Conociendo la posición y la velocidad de la partícula en un instante dado, a través de la solución de la ecuación de Newton, se puede conocer cuál será la posición y la velocidad de la partícula en cualquier otro instante. Es decir, en física clásica la descripción del movimiento de una partícula está asociada al concepto de su trayectoria, y el estado dinámico del sistema está completamente especificado por el conocimiento de su posición y velocidad en cualquier instante del tiempo. Sin embargo, las características ondulatorias de un objeto microscópico sí influyen de manera muy importante en su movimiento, a tal grado, que se pierde el concepto de trayectoria, ya que, de acuerdo con el principio de incertidumbre
de Heisenberg, para objetos de tamaño microscópico, no es posible medir simultáneamente con precisión la posición y la velocidad. Así, en el caso de objetos microscópicos es necesario recurrir a la física cuántica, que establece que toda la información dinámica sobre un sistema se encuentra en una función de onda, que es la solución de una ecuación diferencial parcial,
la ecuación de Schrödinger dependiente del tiempo. Y asociada a ésta, la ecuación de Schrödinger independiente del tiempo, describe a través de la función de onda independiente del tiempo, los estados estacionarios del sistema. La ecuación de Schrödinger independiente del tiempo se escribe en la forma


Ĥ Ψ = E Ψ,


donde Ĥ se conoce como el operador hamiltoniano (en matemáticas un operador es básicamente una receta que nos indica las operaciones que se tienen que realizar cuando actúa sobre una función para generar una nueva función), E es la energía total del sistema y Ψ es la función de onda. El operador hamiltoniano contiene la información sobre la energía cinética y la energía potencial de todas las partículas presentes en el sistema. La función de onda no tiene ningún significado físico; sin embargo, su cuadrado, multiplicado por el elemento de volumen, se interpreta como la probabilidad de encontrar a la partícula dentro de ese elemento de volumen. Es decir, el cuadrado de la función de onda nos proporciona la información sobre la distribución de probabilidad en cada uno de los puntos del espacio. Esta interpretación impone condiciones sobre la función, para que la probabilidad esté bien definida en todos los puntos del espacio. Así, de todas las soluciones que matemáticamente satisfacen la ecuación de Schrödinger, nos quedamos sólo con aquellas que cumplen con estas condiciones. Este hecho lleva precisamente a la cuantización, pues resulta que al satisfacer los requerimientos impuestos por la interpretación de la función de onda, no todos los valores de la energía están permitidos. Esto se expresa por medio de la dependencia de la energía en los denominados números cuánticos, que normalmente corresponden a números enteros o semienteros.

Es importante señalar que las interacciones gravitacionales provenientes de las masas de los núcleos y de los electrones son muchísimo menores que las interacciones electromagnéticas provenientes de las cargas de los núcleos y de los electrones, y pueden, por lo tanto, despreciarse en el hamiltoniano. Por otro lado, las interacciones de tipo nuclear, entre las partículas que componen el núcleo, aun cuando son mucho mayores que las interacciones electromagnéticas, sólo se manifiestan dentro del núcleo, y no inciden sobre el movimiento de los electrones. Son interacciones básicamente responsables de la estabilidad de los núcleos. Consecuentemente, podemos afirmar que las interacciones electromagnéticas provenientes de las cargas y de los momentos magnéticos de los núcleos y de los electrones son las responsables de los fenómenos químicos.

De esta manera, en el caso de una molécula, la parte del operador hamiltoniano
correspondiente a la energía cinética contiene los términos asociados con el movimiento
de los núcleos y los términos asociados con el movimiento de los electrones, mientras que la parte del operador hamiltoniano correspondiente a la energía potencial contiene a los términos asociados con la repulsión eléctrica entre los núcleos, la repulsión eléctrica entre los electrones y la atracción eléctrica entre los núcleos y los electrones. Esta situación implica que la función de onda dependerá de las
tres coordenadas espaciales de cada uno de
los núcleos y de las tres coordenadas espaciales de cada uno de los electrones. Es decir,
si la molécula tiene M núcleos y N electrones, la función de onda dependerá de (3M+3N) variables.

Dada la gran complejidad matemática de la ecuación de Schrödinger, aun cuando se trate de moléculas muy pequeñas, en química cuántica siempre se utiliza la que se conoce como aproximación de Born-Oppenheimer (propuesta precisamente por el físico alemán Max Born y el físico estadounidense Julius Robert Oppenheimer), que consiste en desacoplar el movimiento de los núcleos del movimiento de los electrones. Este desacoplamiento se basa en el hecho de que las masas de los núcleos son mucho mayores que las masas de los electrones, lo que permite escribir dos ecuaciones de Schrödinger: una para el movimiento de los electrones y otra para el movimiento de los núcleos. La ecuación de Schrödinger para el movimiento de los electrones corresponde a una cierta posición fija de los núcleos, por lo que es necesario resolverla para un conjunto amplio de posiciones nucleares, donde cada una de ellas describe una cierta geometría de la molécula. De esta manera, la función de onda electrónica depende explícitamente de las 3N coordenadas espaciales de los N electrones e implícitamente de las 3M coordenadas correspondientes a las posiciones nucleares, mientras que la energía electrónica depende, también, implícitamente de las 3M coordenadas de los núcleos. En resumen, la solución de la ecuación de Schrödinger para el movimiento de los electrones proporciona la información sobre la distribución de los electrones alrededor de los núcleos para una geometría dada de la molécula y la energía electrónica asociada con esa geometría.

Por otro lado, la solución de la ecuación de Schrödinger para el movimiento de los núcleos proporciona la información sobre el movimiento traslacional de la molécula, como un todo, a través del espacio, y sobre los movimientos internos correspondientes a las rotaciones (cambios de orientación de unos núcleos con respecto a otros) y las vibraciones (pequeños desplazamientos de los núcleos alrededor de una posición de equilibrio).

La energía potencial correspondiente a la suma de la energía electrónica y de la repulsión eléctrica entre los núcleos, conocida como la superficie de energía potencial, es una función fundamental para la descripción a nivel microscópico de los fenómenos químicos. En la figura de esta página, se presenta la superficie de energía potencial para el caso más sencillo, correspondiente a la interacción entre dos átomos. En el caso que se presenta, tomamos como referencia que la energía total del sistema cuando los dos átomos se encuentran separados por una gran distancia es, simplemente, la suma de la energía de los dos átomos cuando están aislados. Así, podemos observar que conforme la distancia R entre los átomos disminuye, es decir, conforme los átomos se acercan, la energía potencial U disminuye, hasta el punto correspondiente a R = Re, donde alcanza un valor mínimo. A partir de este punto, al continuar disminuyendo la distancia, la energía potencial aumenta, debido fundamentalmente a que la repulsión entre los núcleos domina. La presencia de un mínimo en la energía potencial significa que se ha formado un enlace, ya que indica que la situación más favorable, desde el punto de vista energético, corresponde al punto en que los dos átomos se encuentran a una distancia Re uno del otro. Cuando una molécula está en este punto se dice que está en su geometría de equilibrio, y la energía De es la energía que se tendría que proporcionar al sistema para romper el enlace, es decir, para separar a los átomos a una distancia prácticamente infinita uno del otro. A esta energía le llamamos energía de enlace o de amarre. La extensión de estos conceptos a moléculas con más de dos átomos, moléculas poliatómicas, es directa, el punto correspondiente al mínimo de la energía potencial U define la geometría de equilibrio de la molécula, y a la diferencia de energías entre el mínimo y la suma de las energías de los átomos aislados se le conoce como energía de atomización.

En el caso más general de un sistema que consta de M núcleos, la superficie de potencial, depende de 3M coordenadas espaciales y define un objeto en un espacio de 3M+1 dimensiones, donde la dimensión extra está asociada con el valor de la energía potencial para el conjunto específico de posiciones de los M núcleos. En general, la forma de la superficie es muy difícil de visualizar debido a que es una superficie multidimensional. Obtener la superficie de energía potencial detallada y precisa es un proceso difícil, aun para sistemas de unos cuantos átomos. El procedimiento teórico consiste en obtener la energía electrónica para una muestra representativa de posiciones nucleares. Lo difícil es precisamente que la muestra sea representativa ya que, en principio, la superficie completa implica conocer un número infinito de valores de la energía electrónica. Por lo mismo, la muestra se selecciona siempre pensando en obtener información específica relacionada con un problema en particular. Los puntos estacionarios (aquellos donde se anulan las derivadas de la energía electrónica respecto a las posiciones nucleares) de la superficie son de especial interés porque los mínimos corresponden a especies químicas estables (reactivos, productos o intermediarios) y los puntos de silla a los llamados estados de transición. Al definir un estado de transición como un punto de silla (como una silla de montar a caballo), está implícito que es un mínimo en todas las direcciones salvo en una en la que es un máximo. Esta última dirección es una trayectoria única entre reactivos y productos que usualmente se denomina coordenada de reacción. Una superficie de energía potencial puede contener un número muy grande de mínimos y de estados de transición. Sin embargo, determinarlos resulta muy importante, pues las propiedades termodinámicas de equilibrio dependen de las diferencias de energía entre mínimos relativos de esta superficie y las propiedades dinámicas dependen de cómo están conectados estos mínimos en la superficie por medio de los estados de transición.

Los efectos dinámicos se pueden modelar teóricamente a partir del conocimiento de la superficie de energía potencial. La primera derivada de la energía potencial respecto de las coordenadas de un núcleo es la fuerza que actúa sobre dicho núcleo. Es posible estudiar la evolución temporal de un conjunto de átomos sujetos a dichas fuerzas resolviendo las ecuaciones de Newton correspondientes. Así, el conjunto de núcleos siguen una dinámica clásica sujetos a la acción de las fuerzas calculadas cuánticamente. Esta forma del estudio de los efectos dinámicos en sistemas moleculares se denomina dinámica molecular ab initio. Mediante este procedimiento se pueden estudiar procesos de rompimiento y formación de enlaces químicos, así como las propiedades
de los estados de transición. Esta técnica ha permitido analizar procesos elementales con un grado de detalle y confiablildad que en muchos casos es inaccesible al experimento.


Los métodos de la química cuántica


La ecuación electrónica de Schrödinger no tiene una solución analítica, excepto en el caso de átomos hidrogenoides (átomos con carga nuclear Z y un solo electrón). Por lo tanto, nos vemos obligados a recurrir a métodos matemáticos que permiten construir soluciones aproximadas. En química cuántica se utilizan, fundamentalmente, dos técnicas, el método variacional y la teoría de perturbaciones.

El método variacional está basado en el principio variacional, el cual establece que si ϕ es una función aproximada que satisface las mismas condiciones a la frontera que la función Ψ0, que es la solución exacta de la ecuación de Schrödinger, asociada con el estado de menor energía E0 (el estado basal de un sistema), entonces el valor de la energía que se calcule utilizando el operador hamiltoniano del problema que estemos abordando, junto con la función aproximada ϕ, llamémosle W, será mayor que el valor exacto de la energía del estado basal E0, es decir, W > E0. El principio variacional también establece que la igualdad entre W y E0 sólo se dará cuando resulte que ϕ es igual a Ψ0.

El método variacional consiste en ir mejorando de manera sistemática la función ϕ, para acercarnos de manera sistemática a la función Ψ0, con lo cual el valor de W se irá acercando al valor de E0. El principio variacional nos garantiza que el valor de W nunca va a ser menor que el valor exacto E0.

Una de las formas más sencillas y comunes de construir una función aproximada es por medio de una expresión del tipo


ϕ = c1 f1 + c2 f2 +...+ cL–1 fL–1 + cL fL,


donde las L funciones fi(r), que dependen de las coordenadas espaciales (r es el vector de posición que en coordenadas cartesianas está dado por las componentes x, y, z), son conocidas, y los coeficientes ci, que son constantes, se calculan de manera que W se acerque lo más posible a E0. El conjunto de funciones fi(x, y, z) se denomina conjunto de funciones de base, o simplemente la base, y el número L, que corresponde al número de funciones utilizadas en el cálculo, se denomina tamaño de la base. Mientras mayor sea el valor de L, mayor será la precisión del cálculo. Es decir, de acuerdo con el principio variacional, mientras mayor sea el valor de L, nos estaremos acercando más a la función exacta Ψ0 y a la energía exacta E0.

Por otro lado, la teoría de perturbaciones se basa en la idea de escribir el operador hamiltoniano Ĥ del sistema que estemos estudiando, como


Ĥ = Ĥ0 + λ Ĥ


donde Ĥ0 se conoce como el hamiltoniano no perturbado del sistema, que tiene asociada una ecuación de Schrödinger cuyas soluciones conocemos, Ĥ’ es la perturbación, y λ es un parámetro que toma valores entre cero y uno, de manera que nos permite “apagar” la perturbación totalmente (λ = 0) o “prenderla” totalmente (λ = 1). En este segundo caso, el hamiltoniano coincide con el del problema que deseamos estudiar.

En la teoría de perturbaciones se propone un desarrollo en series de potencias de la función de onda y de la energía, alrededor de λ = 0, y dicho desarrollo se evalúa para λ = 1, de manera que nos vamos acercando a la solución exacta a través de las correcciones de primer orden (que corresponde al coeficiente del término con λ elevado a la primera potencia), las correcciones de segundo orden (que corresponde al coeficiente del término con λ elevado al cuadrado), etcétera. Cada una de estas correcciones se expresa en términos de las soluciones del hamiltoniano no perturbado.

La teoría de perturbaciones también se utiliza en combinación con el método variacional, pues dependiendo de la forma como se haga la separación del hamiltoniano, el sistema no perturbado puede conducir a una ecuación de Schrödinger complicada, que es necesario resolver mediante el método variacional. En este caso, tanto la solución del sistema no perturbado, como las correcciones debidas a la perturbación, se suelen expresar en términos de la base.

Así, está claro que la selección de la base es muy importante, ya que la calidad de la solución que se obtenga tanto por el método variacional, como por teoría de perturbaciones depende fuertemente de ésta. Normalmente, en estudios de estructura electrónica de moléculas las funciones fi(r) están centradas en cada uno de los núcleos presentes y son similares a los orbitales de cada uno de los átomos que componen a la molécula, motivo por el cual a las funciones de este tipo se les da el nombre de combinación lineal de orbitales atómicos o lcao (por sus siglas en inglés, Linear Combination of Atomic Orbitals). Claramente, el desarrollo lcao puede mejorarse de manera sistemática al aumentar el tamaño de la base, lo cual redunda en una mejor aproximación a la solución de la ecuación de Schrödinger. Sin embargo, la elección de la base no es un asunto trivial. De hecho, una enorme cantidad de trabajos en la literatura versan sobre la calidad de las predicciones de estructura y otras propiedades moleculares en función de la base, tanto en tamaño como en tipo, ya que estos dos aspectos están vinculados directamente con la capacidad de cómputo de que se disponga.

Desde el inicio de la química cuántica, con el trabajo de Heitler y London, hasta nuestros días, podemos afirmar que la inmensa mayoría de los estudios de estructura electrónica de moléculas están basados en el uso de combinaciones lineales de orbitales atómicos. Destaca el trabajo que realizó el químico estadounidense y dos veces premio Nobel, Linus Pauling, quien al conocer el trabajo de Heitler y London decide centrar todos sus esfuerzos en usar esta nueva herramienta de la mecánica cuántica para tratar de darle fundamento a las ideas de enlace de Lewis y Langmuir. De esta manera, surge lo que conocemos como la teoría de unión valencia, que se origina en el trabajo sobre la molécula de hidrógeno de Heitler y London, y se enriquece a través de las múltiples aportaciones de Pauling. En esta teoría la función de onda molecular se escribe como una combinación lineal de funciones atómicas que intentan representar a los pares de electrones propuestos por Lewis. En este esquema resulta muy natural la partición de contribuciones covalentes (pares de electrones compartidos entre un par de átomos) y iónicas (el par de electrones se encuentra preferencialmente en uno de los átomos). La manera tan natural como surgen dentro de la teoría de unión valencia conceptos intuitivos de la química como covalencia y ionicidad nos permiten entender el éxito de esta manera de abordar el enlace químico. Por supuesto, hay que añadir la enorme influencia que tuvo y tiene hasta nuestros días el libro escrito por Pauling en 1939, The Nature of the Chemical Bond, donde presenta con gran claridad conceptos que se arraigaron en la química como electronegatividad, hibridación y resonancia, así como los ya señalados de contribución covalente y iónica al enlace. La capacidad de racionalizar estructuras y propiedades moleculares a partir de un conjunto de reglas de hibridación fácilmente comprensible, resultó en una gran aceptación por parte de la comunidad científica, ya que permitía visualizar y explicar al enlace químico con base en los conceptos de la teoría de unión valencia. Sin embargo, el atractivo de la descripción cualitativa no va de la mano de la extensión de esta teoría a moléculas con muchos electrones. La generación de la función de onda molecular a partir de las premisas de la teoría de unión valencia no es fácil de generalizar, además de que en su desarrollo surgen dificultades numéricas importantes para poder resolver la ecuación de Schrödinger con un error químicamente aceptable.

Una alternativa a la teoría de unión valencia es la teoría de orbitales moleculares propuesta por cuatro grandes figuras de la química teórica, Friedrich Hund, Robert Mulliken, John C. Slater y John Lennard-Jones. La teoría de orbitales moleculares visualiza a los electrones como distribuidos en todos los átomos presentes en una molécula, a diferencia de la de unión valencia que los conceptualiza como pares localizados. Desde el punto de vista práctico, la construcción y generalización de la función de onda molecular es mucho más directa en el contexto de orbitales moleculares que en el de unión valencia. Lo anterior facilitó el desarrollo de algoritmos para resolver la ecuación de Schrödinger y trajo como consecuencia que desde la década de 1940 hasta nuestros días la inmensa mayoría de los estudios fundamentales de estructura electrónica molecular se han realizado dentro del esquema de orbitales moleculares. Sin embargo, a partir de la década de 1980 y gracias a los desarrollos teóricos y computacionales, la teoría de la unión valencia está experimentando un resurgimiento como una alternativa al estudio del enlace químico. Es importante señalar que en el límite, cuando los desarrollos son completos, ambas descripciones coinciden. No podemos dejar de mencionar que las contribuciones de Mulliken son tan relevantes que en 1966 recibió el premio Nobel de química “por su trabajo fundamental relacionado con los enlaces químicos y la estructura electrónica de las moléculas por medio del método de orbitales moleculares”.


El espín del electrón y el principio
de exclusión de Pauli


En 1924, para tratar de explicar el espectro de emisión de los metales alcalinos también conocido como el experimento de Stern-Gerlach, el físico austriaco Wolfang Pauli introdujo una variable física sin contraparte en la mecánica clásica. Posteriormente, en 1925, George Uhlenbeck y Samuel Goudsmit denominaron a esta variable el espín del electrón, que se identifica como un momento angular intrínseco de origen relativista, que juega un papel fundamental en la química.

El espín del electrón es un grado de libertad adicional, por lo que es necesario incorporar en la función de onda electrónica, además de la dependencia en las tres coordenadas espaciales de cada uno de los electrones, la dependencia de cada uno de ellos en el espín. Dado que el espín no tiene una contraparte clásica, para describir la dependencia de cada electrón en esta variable se usan directamente los números cuánticos. Así, como el espín del electrón tiene asociado el valor del número cuántico s=1/2 para la magnitud del momento angular intrínseco, entonces el número cuántico asociado a la componente z de este momento angular intrínseco, ms, puede tomar los valores de +1/2 o –1/2. De esta manera, la función de onda se expresa en términos de las coordenadas x, y, z y ms, de cada uno de los electrones. Es decir, con el grado de libertad adicional proveniente del espín, la función de onda electrónica de un sistema con N electrones, depende de 4N variables, aun cuando el hamiltoniano de la ecuación de Schrödinger sea independiente del espín.

Un aspecto fundamental vinculado con el espín es el que se refiere a la descripción de un conjunto de partículas indistinguibles. Cuando consideramos un conjunto de N partículas que son idénticas, es decir, que todas ellas tienen las mismas propiedades, como la masa, la carga, etcétera, en física clásica podemos distinguirlas por su trayectoria, ya que si al tiempo t0 sabíamos cuál era la posición y la velocidad de cada una de las partículas, a través de la solución de las ecuaciones de Newton, a cualquier tiempo futuro podemos saber dónde se encuentra y qué velocidad tiene cada una de ellas. Es decir, que siempre sabemos cuál es la partícula que denominamos como la uno, la dos,..., hasta la N. Sin embargo, debido a que en mecánica cuántica no podemos hablar de la trayectoria de cada una de las partículas, no podemos seguir a la partícula uno, a la dos,..., hasta la N, por lo que no las podemos distinguir.

La situación anterior implica que la función de onda que describe al sistema de N partículas debe escribirse de forma que las N partículas sean indistinguibles. Esto tiene como consecuencia que cuando intercambiamos las coordenadas de cualesquiera dos de ellas la función de onda debe seguir describiendo al mismo estado del sistema. Desde el punto de vista matemático esto implica que si las coordenadas espaciales y de espín de cualesquiera dos de las partículas del sistema se intercambian, entonces la función de onda del sistema tiene que cumplir alguno de los siguientes comportamientos: o cambia de signo o no se ve afectada. En el primer caso se dice que la función es antisimétrica con respecto al intercambio de coordenadas, mientras que en el segundo se dice que la función es simétrica.

Así surge una primera gran clasificación de todas las partículas que existen en la naturaleza de acuerdo al espín de las mismas. Las partículas con espín entero como 1, 2, 3,..., que se les llama bosones, se describen por medio de funciones simétricas y siguen una estadística de Bose-Einstein, y las partículas con espín semientero, como 1/2, 3/2, 5/2, ..., que se les llama fermiones, se describen por medio de funciones antisimétricas y siguen una estadística de Fermi-Dirac. El nombre de cada estadística es en honor de los científicos que las propusieron y son el bengalí Satyendra Nath Bose, el bien conocido alemán Albert Einstein, el italiano Enrico Fermi y el inglés Paul Adrien Maurice Dirac, todos ellos figuras relevantes en el desarrollo de la mecánica cuántica. Los electrones por tener espín 1/2 son fermiones y por lo tanto deben ser descritos por funciones antisimétricas.

Fue Pauli quien se percató de que la introducción de la antisimetría en un sistema de N electrones lleva a un principio particularmente relevante para la química, el principio de exclusión, que en su honor, hoy lo conocemos como el principio de exclusión de Pauli. De acuerdo con este principio, dos partículas con el mismo espín semientero, como los electrones, aun si no tuvieran carga, sufrirían una interacción repulsiva que provoca una “exclusión” entre ellos. Este fenómeno, sin contraparte en la mecánica clásica, es la piedra angular de la química, pues una parte fundamental del complejo comportamiento de los electrones en los átomos, las moléculas y los sólidos proviene de esta interacción física, que da lugar a la denominada energía de intercambio.


Estructura electrónica de moléculas


Al contar con la ecuación que describe al mundo microscópico, la ecuación de Schrödinger, y el conocimiento de que los electrones son fermiones y deben estar descritos por una función de onda antisimétrica, se abre la posibilidad, en principio, de estudiar cualquier problema de química. Como ya lo dijimos, los alemanes Fritz London y Walter Heitler, en 1927, utilizan la mecánica cuántica para explicar la estabilidad de la molécula neutra más simple que podemos imaginar, la molécula de hidrógeno. Desde aquel entonces quedó muy claro que no había más fundamentos que buscar y que había que dirigir los esfuerzos hacia el desarrollo de métodos que permitieran resolver la ecuación de Schrödinger para un sistema de electrones.

En 1929, el físico teórico estadounidense John C. Slater propuso que una manera de escribir funciones de onda antisimétricas es por medio de determinantes. Si cada uno de los elementos del determinante es una función de un sólo electrón, es decir una función que depende de las tres coordenadas espaciales y de la coordenada de espín, entonces podemos escribir el determinante de manera que el intercambio de coordenadas corresponda con el intercambio de filas o el intercambio de columnas. Así, el nuevo determinante será igual al original multiplicado por menos uno, que es lo que se requiere para que la función sea antisimétrica. Es decir, la función de onda la podemos expresar en la forma


1ϕ1(x1)  ϕ2(x1)  ...  ϕN(x1)

Ψ(x1,x2, ..., xN) = ——ϕ1(x2)  ϕ2(x2)  ...  ϕN(x2)  ,

N!

ϕ1(xN)  ϕ2(xN)  ...  ϕN(xN)


donde la cantidad N! se refiere al factorial del número N que es el producto N(N-1)(N-2) ⋅⋅⋅2⋅1 y el factor 1/ √N! garantiza que la probabilidad de encontrar a los N electrones en algún punto del espacio sea igual a la unidad. En la ecuación x = {r, ms}, r representa a las tres coordenadas espaciales y ms a la coordenada de espín, de manera que las funciones ϕi están dadas por el producto de una función monoelectrónica espacial, que en química cuántica se llama orbital, y una función de espín, por lo que se les denomina espín-orbitales.

Ahora bien, por la gran complejidad que implica la descripción de un sistema multielectrónico, normalmente se recurre a un concepto de gran importancia en la teoría de muchos cuerpos. Nos referimos al concepto de campo autoconsistente o scf (por sus siglas en inglés: Self Consistent Field). La idea física detrás del campo scf es muy sencilla de entender. Dado que no podemos resolver un problema de N-cuerpos, lo reemplazamos por N problemas de un cuerpo, donde cada cuerpo, los electrones en el caso de un problema atómico, molecular o de sólidos, se mueve no como una partícula “desnuda” sino como una partícula “vestida” por un promedio de las interacciones que sufre con las N-1 partículas efectivas restantes. A estas partículas “vestidas” les llamamos cuasi-partículas y se distinguen de sus contrapartes en que llevan consigo la información promedio de las interacciones con todas las demás partículas presentes en el sistema. Como dijimos anteriormente, este esquema queda bien establecido prácticamente desde el surgimiento de la mecánica cuántica. Fue en 1927 cuando Hartree desarrolló este concepto al describir la función de onda para un sistema con muchos electrones, por medio de un simple producto de espín-orbitales, denominado posteriormente producto de Hartree. Cabe destacar que el producto de Hartree no cumple con el requisito de antisimetría, por lo que, en 1930, el físico soviético Vladimir Aleksandrovich Fock plantea la misma idea que Hartree del campo scf, pero para una función de onda antisimétrica, como tiene que ser aquella que pretende describir a un sistema electrónico. Cabe señalar que de manera independiente y en el mismo año, Slater publicó el mismo resultado. Surge de esta manera uno de los métodos más importantes para describir a un sistema electrónico, el método o teoría de Hartree-Fock (hf). El reconocimiento a la contribución de Slater se da en la definición actualmente aceptada de la teoría de hf, que establece que es la mejor función de onda de un solo determinante, constituido por N espín-orbitales, al que, como ya dijimos, llamamos determinante de Slater.

Las aproximaciones de Hartree y de Hartree-Fock son los primeros pasos en la construcción de funciones de N cuerpos a partir de orbitales. En realidad, la función de onda exacta es una suma de determinantes que se construyen de manera sistemática a partir del primero mediante excitaciones de uno, dos, tres, o más electrones. Estas “excitaciones” consisten en utilizar uno, dos, tres o más orbitales diferentes a los N originales del primer determinante. Dado que cada determinante corresponde a una configuración electrónica, entendida ésta como la asignación de un conjunto de N orbitales específicos para construirlo, al desarrollo de la función de onda a la que hacemos referencia le llamamos la función de interacción de configuraciones (ci por sus siglas en inglés: Configuration Interaction). La forma del desarrollo ci contiene un primer término que corresponde al determinante (configuración) de referencia: el segundo término, a las configuraciones que se obtienen a partir de la excitación de un electrón; el siguiente a las configuraciones correspondientes a excitaciones de dos electrones, y así sucesivamente. El principio variacional asegura que cualquier mejora en la función de onda implica un descenso en la energía y proporciona, de esta forma, un camino jerárquico para incrementar la calidad de la función de onda y, en consecuencia, la predicción de las propiedades calculadas con ella. En principio, si se incluyen todas las excitaciones y si la base en la cual se desarrollan los espín-orbitales moleculares es completa, el desarrollo de ci genera la función de onda exacta del sistema.

Un camino alternativo para alcanzar la solución exacta lo proporciona la aplicación de la teoría de perturbaciones de muchos cuerpos, que se denota como mpn por los autores originales de la propuesta, Møller y Plesset, y donde n se refiere al orden. El primer término no nulo del desarrollo mp es el de segundo orden (n=2) y corresponde a la inclusión de correlaciones de pares de electrones. El orden cero es Hartree-Fock.

Correlación electrónica


El problema básico de la estructura electrónica de átomos, moléculas y sólidos es el de describir de la mejor manera posible la interacción entre los electrones. Los métodos aproximados a los cuales nos referimos en los párrafos precedentes son mejoras sistemáticas y jerarquizadas a la función de onda que incorporan, de la misma manera sistemática y jerárquica, a la correlación electrónica. Éste es uno de los conceptos clave en la química teórica contemporánea, pues hoy sabemos que muchos fenómenos químicos dependen crucialmente de este factor, y por esta razón vale la pena detenernos un momento para precisar su definición y significado en la química. En primer lugar, es importante señalar que las definiciones de este concepto son diferentes en física y en química. En la primera, se entiende por correlación que en un sistema de muchas partículas mutuamente interactuantes, las interacciones instantáneas sobre cualquiera de ellas afecta al movimiento de la misma, lo cual implica considerar como nivel de referencia el de un sistema de partículas totalmente independientes. Podemos entender mejor este concepto en mecánica cuántica si recurrimos a la interpretación probabilística de la función de onda. Si por simplicidad consideramos la función de onda de un sistema de dos electrones, entonces la situación que corresponde al problema sin correlación, es aquella donde la función de onda se escribe como un producto de Hartree, pues la no correlación implica que la densidad de probabilidad de dos electrones se escribe como el producto de las densidades de probabilidad de los electrones individuales. Esto es, como el producto de dos eventos independientes. Puede notarse que la misma razón por la cual cuestionamos anteriormente al producto de Hartree explica por qué la definición “física” de correlación no es la apropiada para la química. La razón a la cual apelamos es la antisimetría. Por estos motivos, uno de los químicos teóricos más importantes de la segunda mitad del siglo xx, el sueco Per-Olov Löwdin, un excelente maestro y promotor de la química teórica en los países latinoamericanos, propuso en 1955 que la definición más apropiada para la correlación en química es la diferencia entre la energía exacta no relativista de un sistema multielectrónico y la energía correspondiente al modelo de Hartree-Fock.

Este punto, aparentemente menor, no debe soslayarse, pues la definición “química” de energía de correlación no toma como referencia al sistema de electrones independientes sino al sistema de electrones descritos por una función de onda antisimétrica constituida por un solo determinante de Slater y, en consecuencia, se toma hf como la referencia para su cuantificación. No es difícil demostrar que en el modelo de hf los electrones del mismo espín si están correlacionados y que la correlación que está implícita en la definición de Löwdin corresponde a la correlación del movimiento de los electrones con espín opuesto. La energía de correlación es un porcentaje pequeño de la energía total, alrededor de 10%. Sin embargo, al tomar diferencias de energías totales, como cuando calculamos la energía de formación de un enlace químico o la energía de activación asociada a un paso elemental de una reacción química, la participación de la correlación puede resultar sumamente importante. La situación puede ser tan extrema como que hf puede predecir la inexistencia de un enlace químico, mientras que ci o mpn, métodos que incluyen a la correlación electrónica, pueden cambiar dramáticamente la predicción. Ir más allá de hf es importante no sólo para mejorar la descripción de los electrones que participan directamente en los enlaces químicos sino también en interacciones cruciales para la química, que involucran energías mucho más pequeñas que las correspondientes a un enlace químico fuerte. Por razones evidentes, nos referimos a las llamadas interacciones débiles de la química, dentro de las cuales podemos señalar de manera principal a los puentes de hidrógeno y a las interacciones de dispersión o fuerzas de Van der Waals. Aun cuando algunas de estas interacciones débiles tienen orígenes o contribuciones electrostáticas, su descripción adecuada depende o descansa en la correlación electrónica, y todas ellas juegan un papel fundamental en situaciones de gran interés para la química, como los sistemas supramoleculares o en problemas de interés biológico como proteínas y ácidos nucléicos. En suma, la correlación electrónica juega un papel crucial en química y, por ello, mejorar nuestra comprensión y su descripción cuantitativa es uno de los grandes retos y objetivos de la química teórica contemporánea.


Funciones de base


Cuando se utiliza el método variacional junto con una base, lo que estamos haciendo realmente es convertir un problema que involucra ecuaciones diferenciales, en un problema de tipo matricial, como lo propusieron en 1951 y de manera independiente, en Chicago, el estudiante holandés de Mulliken, Clemens C.J. Roothaan y, en Cambridge, el estudiante de Lennard-Jones, George G. Hall. Las ecuaciones matriciales que resultan se conocen como las ecuaciones de Roothaan-Hall y son idóneas para el tratamiento numérico en una computadora, pues si en algo son eficientes estas máquinas es precisamente en el álgebra matricial. De hecho, muchas compañías actuales que diseñan y producen procesadores para las computadoras se han preocupado por desarrollar bibliotecas numéricas de álgebra lineal optimizadas para sus arquitecturas y con las cuales se logran rendimientos muy superiores a los correspondientes a otros caminos para resolver el problema electrónico. Por lo tanto, no sorprenderá al lector saber que muchos químicos teóricos han sido y son consultores de las grandes compañías de cómputo, y el caso de Roothaan es emblemático. Al retirarse de la Universidad de Chicago, en 1988, lo contrató la compañía Hewlett-Packard para trabajar en el desarrollo del que aun en nuestros días es uno de los procesadores más eficientes para el trabajo numérico de alta demanda, el Itanium.

Existen dos tipos de funciones que desde el advenimiento de la química cuántica dominan los cálculos de estructura electrónica. Uno es el de funciones tipo Slater o sto (por sus siglas en inglés: Slater Type Orbitals) cuya característica principal es que tienen una dependencia de tipo exponencial (eς r) en la distancia al origen. El otro es el de funciones tipo gaussiana o gto (por sus siglas en inglés: Gaussian Type Orbitals), cuya característica principal es que tienen una dependencia de tipo gaussiana (e–α r2) en la distancia al origen.

Tanto en los sto como en los gto la extensión espacial o el alcance del orbital está determinado por los exponentes ς y α, respectivamente. Mientras más grandes sean estos exponentes, el orbital estará más localizado en su centro y, por el contrario, mientras menores sean, el orbital tiene una mayor extensión. De hecho, en los cálculos de estructura electrónica, cuando se desea mejorar la descripción de electrones muy débilmente ligados a los núcleos, se recurre a funciones con exponentes pequeños, las cuales se llaman funciones difusas.

Cuando se utiliza el método variacional con un conjunto de funciones de base, es necesario calcular varios tipos de integrales, dependiendo del número de electrones y del número de centros, para poder determinar los coeficientes de la combinación lineal expresados en la ecuación (2) que llevan a la menor energía posible. Así, por un lado, en relación con los electrones aparecen dos tipos de integrales, las que dependen de las coordenadas de uno solo de los electrones, que se les denomina integrales monoelectrónicas, y las que dependen de las coordenadas de dos de los electrones, que se les denomina integrales bielectrónicas. Por otro lado, en relación con los centros (las funciones están centradas en los diferentes núcleos de los átomos que conforman la molécula), podemos tener integrales de uno, dos, tres y hasta un máximo de cuatro centros. La complejidad en la evaluación de las integrales se incrementa con el número de electrones y con el número de centros, de manera que el esfuerzo computacional crece rápidamente en función del número de átomos (electrones y núcleos) presentes en la molécula y del número de funciones de base.

La motivación detrás de los sto es la solución de la ecuación de Schrödinger para átomos hidrogenoides. Los sto son un excelente conjunto de base para cálculos de estructura electrónica. Sin embargo, el cálculo de las integrales bielectrónicas de tres y cuatro centros es complicado. Es precisamente la simplificación que se tiene en el cálculo de este tipo de integrales, la razón fundamental para usar gto como funciones de base. Esto se debe a un teorema fundamental que cumplen las funciones gaussianas que establece que el producto de una función gaussiana centrada en un punto,  por otro gaussiana centrada en otro punto, se puede expresar en términos de una nueva gaussiana centrada en un punto que se localiza a lo largo de la línea que une los puntos en los que se encuentran centradas las dos gaussianas originales.

El pionero en usar las funciones de base gto fue el físico y químico teórico inglés Samuel F. Boys, quien en 1949 fue invitado a Cambridge para dar un curso de química teórica y ahí, en el laboratorio de matemáticas que fundó Lennard-Jones, tuvo la oportunidad de utilizar una de las primeras computadoras que estuvo disponible para el trabajo académico, la edsac que sólo contaba con ¡0.5 kbytes de memoria! Boys se percató del enorme futuro que tenía la aplicación de estas máquinas electrónicas para resolver problemas científicos y, por ello, orientó a muchos de sus alumnos a dedicarse y especializarse en esta rama. Su previsión era acertada y, de hecho, varios de sus alumnos terminaron por posicionarse en la entonces naciente ciencia de la computación. En 1950 Boys publica uno de los artículos clásicos de la química teórica que versa sobre la evaluación de integrales moleculares en una base de gaussianas. Hoy se le otorga el crédito del uso de los gto a Boys, pero el también inglés Roy McWeeny al parecer fue el primero en usarlos en química cuántica en su trabajo doctoral bajo la supervisión de Coulson. Así, la llegada de las computadoras al entorno académico y el descubrimiento de la ventaja computacional que representaban los gto para resolver la ecuación de Schrödinger en problemas electrónicos detonaron un fundamental, productivo y relevante campo de investigación: la solución de las ecuaciones básicas de la mecánica cuántica, sin recurrir a aproximaciones, salvo las intrínsecas a los algoritmos numéricos utilizados. Este camino se conoce como ab initio, que en latín significa a primeros principios y, en palabras del profesor Robert Parr, el término surgió por primera vez en una carta que un alumno de Coulson, David Craig, le envió a Parr, quien en el año de 1951 se encontraba en la Universidad de Carnegie Mellon, en Pittsburgh. Ambos estaban trabajando en la predicción de espectros de compuestos aromáticos a partir de la solución de la ecuación de Schrödinger. En la carta, Craig se refiere al procedimiento como ab initio y Parr lo usa en el artículo que publicó sobre el tema. En 1953 Parr pasó un año en Cambridge con Boys, y su compañero de oficina era el ya entonces doctor en fisicoquímica, el inglés John Pople. Matemático de origen, Pople decidió hacer su tesis doctoral en un campo donde pudiera usar sus conocimientos en matemáticas y se decidió por un estudio mecánico estadístico del agua bajo la supervisión de Lennard-Jones. La interacción entre Pople y Parr resultó de enorme valor para la química teórica. Parr estaba interesado en usar la mecánica cuántica para predecir el espectro uv-visible de compuestos aromáticos. Sabía de los trabajos de Boys sobre el uso de gaussianas, pero pronto se percató que la tecnología computacional de esos años no era suficiente para tener resultados en tiempos razonables, por lo que junto con Rudolph Pariser se dedicó a realizar aproximaciones a las complejas integrales moleculares que aparecen cuando se resuelve la ecuación de Schrödinger en una base, con el objeto de reducir el esfuerzo numérico necesario para llegar a una solución aproximada de la ecuación de Schrödinger. A su llegada a Cambridge, Pople le mostró a Parr un trabajo muy cercano a lo que había realizado junto con Pariser, por lo que unieron esfuerzos y surgió una clase de métodos que por varias décadas fueron la única alternativa para calcular la función de onda de moléculas de interés. Nos referimos a los métodos semiempíricos como el método ppp por las iniciales de los autores, Pariser, Parr y Pople. En 1964 Pople se mudó a Estados Unidos, donde vivirá el resto de su vida. Estuvo en las universidades de Carnegie Mellon (1964-1993) y Northwestern. En las décadas de 1950 y 1960, Pople desarrolló otros métodos semiempíricos como cndo e indo, con el objeto de aplicarlos a sistemas más generales que los que pueden estudiarse con ppp (este método sólo considera los electrones tipo π). Al percatarse del desarrollo de las capacidades computacionales, Pople se embarcó en la tarea de escribir un programa que permitiera la solución ab initio de problemas de estructura electrónica. Así, en 1970, junto con W.J. Hehre, W.A. Lathan, R. Ditchfield y M.D. Newton hacen público el acceso a uno de los programas más ampliamente conocidos y usados en la química teórica: el programa gaussian 70. Este programa se ha mantenido a lo largo de los años y su versión actual, G03, es quizá el programa de química teórica con la mayor cantidad y variedad de métodos para estudiar problemas de estructura electrónica de átomos, moléculas y sólidos. Las contribuciones de John Pople al desarrollo de la química teórica son tan trascendentes que en 1998 se le otorgó el premio Nobel de química por sus desarrollos de métodos computacionales en la química cuántica.

Es importante enfatizar que el objetivo dentro de la filosofía ab initio es resolver la ecuación electrónica de Schrödinger sin ningún tipo de consideraciones adicionales que no sean el conocimiento del número y carga de los núcleos y el número total de electrones y contar con un camino sistemático para mejorar la calidad de la función de onda.

La teoría de funcionales de la densidad


Un camino alternativo, que cobró una enorme importancia a partir de la década de 1990 y que en la actualidad es la herramienta dominante para llevar a cabo estudios de estructura electrónica en problemas de física, química y biología es la teoría de funcionales de la densidad (dft por sus siglas en inglés: Density Functional Theory). Esta teoría se sustenta en dos teoremas desarrollados por Hohenberg y Kohn en 1964, los cuales ponen de relieve la importancia de la densidad electrónica, aunado al hecho de que ésta es una cantidad susceptible de medirse experimentalmente, es decir, observable. La densidad electrónica se puede obtener a partir de la función de onda del sistema de N electrones. Como ya mencionamos, la función de onda electrónica depende de 4N coordenadas (3N espaciales y N de espín). Dado que el cuadrado de la función de onda representa la función de distribución de probabilidad de los N electrones, la integral (suma) sobre (3N-3) coordenadas espaciales, junto con la integral sobre las N coordenadas de espín, proporciona la probabilidad de encontrar a uno cualquiera de los N electrones en el punto correspondiente a las tres coordenadas espaciales sobre las que no se integró y dentro de un elemento de volumen centrado en este punto del espacio tridimensional. Si esta probabilidad la multiplicamos por la carga del electrón obtenemos la densidad electrónica (número de electrones por unidad de volumen) en función de la posición en el espacio tridimensional, ρ(r). Es decir, la densidad electrónica nos dice cómo están distribuidos los electrones en el espacio.

La energía está dada por integrales sobre todo en el espacio, en las que el integrando se expresa en términos de la densidad electrónica. En otras palabras, la energía es un número cuyo valor depende de los valores de la densidad electrónica en todos los puntos del espacio; este tipo de relación matemática se le denomina funcional.

El primer teorema de Hohenberg y Kohn establece que es posible determinar todas las propiedades de un sistema a partir de la densidad electrónica. Este teorema implica que, en principio, es posible expresar a la energía total de un sistema en términos sólo de la densidad electrónica, esto es, el funcional al que apelamos en el párrafo anterior. El segundo teorema establece que la densidad electrónica y la energía total asociadas con el estado basal del sistema (el estado de mínima energía), son iguales a las que se obtendrían de la ecuación de Schrödinger correspondiente al sistema en estudio. Este segundo teorema lleva a la ecuación que tenemos que resolver para obtener, primero, la densidad electrónica del estado basal, y a partir de ésta calcular la energía total. Esta simplificación resulta muy importante pues mientras que la función de onda depende de 4N coordenadas, la densidad electrónica sólo depende de tres coordenadas espaciales. La simplificación es abrumadora, evidente y atractiva.

Sin embargo, el problema de la teoría de funcionales de la densidad es que, a la fecha, no sabemos cómo expresar la energía total del sistema en términos, exclusivamente, de la densidad electrónica. La energía electrónica total para una molécula está compuesta por la energía cinética de los electrones, la energía de atracción eléctrica entre los electrones y los núcleos, y la energía de interacción entre los electrones. De acuerdo con algunos teoremas muy importantes de la dft, esta última comprende tres partes, la repulsión coulómbica clásica entre los electrones, la energía de intercambio y la energía de correlación. De todas estas componentes, sólo se conocen las expresiones para la energía de atracción eléctrica entre los electrones y los núcleos, y la energía de repulsión coulómbica clásica entre los electrones, en términos de la densidad electrónica. Dado que de las tres expresiones que se desconocen, la que corresponde a la energía cinética es mucho mayor que la correspondiente a las energías de intercambio y correlación, Kohn y Sham propusieron, en 1965, sustituir la energía cinética por la de un sistema de N electrones independientes, cuya densidad electrónica es igual a la del sistema interactuante, y la diferencia entre la energía cinética así obtenida y la exacta se suma a la energía de intercambio y correlación. De esta manera, la formulación sigue siendo exacta, pero ahora, la parte desconocida, que es necesario aproximar en términos de la densidad electrónica, la energía de intercambio y correlación, es una fracción mucho menor de la energía total. Por este camino se regresa a un lenguaje orbital, ya que la energía cinética del sistema de electrones no interactuantes se expresa en términos de los llamados orbitales de Kohn-Sham, pero éstos se pueden determinar por medio de la técnica de campo autoconsistente descrita anteriormente. El grado de dificultad para resolver las ecuaciones de Kohn-Sham es similar al grado de dificultad asociado con la solución de las ecuaciones de Hartree-Fock, pero la gran diferencia es que los orbitales de Kohn-Sham sí incluyen los efectos de la correlación electrónica que, como ya se dijo, es fundamental para la descripción correcta de los procesos químicos.

La mayor parte de las aproximaciones que se utilizan para expresar la energía en términos de la densidad electrónica se basan en el modelo del gas de electrones. Éste es un sistema homogéneo, con densidad uniforme en todo el espacio. La aproximación llamada de densidad local, lda (por sus siglas en inglés: Local Density Approximation), consiste precisamente en reemplazar en las expresiones del gas de electrones la densidad, por la densidad en cada punto del espacio, para el caso de átomos, moléculas y sólidos. Este modelo proporciona una buena aproximación a las energías de intercambio y de correlación, y por lo tanto resulta de gran utilidad cuando se utiliza en el contexto del método de Kohn-Sham. Para tomar en cuenta la inhomogeneidad de la densidad electrónica la aproximación lda se corrige incorporando términos que dependen de la derivada de la densidad electrónica con respecto a la posición.

A finales de la década de 1960 y principios de la de 1970, la teoría de funcionales de la densidad en la formulación de Kohn-Sham tuvo un gran impacto en problemas de estructura electrónica de la física del estado sólido y de superficies. En esa misma época surgen las primeras aplicaciones del método al estudio de estructura electrónica de átomos, y se empiezan a desarrollar técnicas numéricas para abordar el cálculo de estructura electrónica de moléculas. Posteriormente, durante la década de 1980, el canadiense Axel D. Becke publica una serie de estudios en los que muestra que la teoría de Kohn-Sahm, combinada con una buena aproximación a la energía de intercambio-correlación en términos de la densidad electrónica, proporciona resultados muy adecuados para describir las propiedades termodinámicas de sistemas químicos.

A principios de la década de 1990, una vez confirmado el enorme potencial que tenía la teoría de funcionales de la densidad en cálculos de estructura electrónica, la solución de las ecuaciones de Kohn-Sham se incorporó al programa gaussian y a otros paquetes computacionales, con lo cual se empezó a utilizar de manera sistemática en una gran variedad de problemas de interés en física, química y biología. En esta época surge la formulación de intercambio-correlación denominada b3lyp, que ha sido una de las más utilizadas. En esta aproximación se reemplaza una parte del intercambio de un gas de electrones, correspondiente al modelo de Becke (b), por el intercambio de Hartree-Fock y se incorpora la energía de correlación derivada por Lee, Yang y Parr (lyp). En este modelo, denominado “híbrido”, por mezclar el formalismo de la función de onda con el formalismo de la densidad electrónica, se utiliza un parámetro de ajuste, que mide cuánto del intercambio total se determina por medio del gas de electrones y cuánto por medio de la expresión de Hartree-Fock, el intercambio exacto en términos de orbitales. El valor del parámetro de ajuste se fija minimizando el error en la predicción de varias propiedades para un conjunto de moléculas preestablecido. Este conjunto de moléculas trata de ser lo más representativo de los diversos tipos de enlaces y entornos químicos (el número 3 en b3lyp identifica al conjunto y propiedades utilizadas para fijar el valor del parámetro).

Es importante destacar que el enorme impacto que tuvo esta teoría en los siguientes años fue tan trascendente que en 1998, Walter Kohn, junto con John Pople, recibieron el premio Nobel de química.

Actualmente hay mucha actividad en el desarrollo de nuevas formulaciones de la energía de intercambio-correlación en función de la densidad electrónica que tienen por objetivo alcanzar una precisión del orden de más o de menos una kcal/mol, como máximo, en la predicción de las energías de interacción entre diversos sistemas químicos, en relación con los valores experimentales. Existen dos tendencias en el desarrollo de estas expresiones. Una de ellas consiste en introducir parámetros de ajuste, que como en el método b3lyp se fijan minimizando los errores en la predicción de propiedades termodinámicas, fundamentalmente, de conjuntos representativos de moléculas. Así, una vez que se han fijado los valores de todos los parámetros, la nueva formulación se puede utilizar para estudiar la estructura electrónica de cualquier sistema.

La otra tendencia en el desarrollo de nuevas expresiones para el intercambio y la correlación consiste en incorporar en las ecuaciones de tipo gas de electrones el mayor número posible de propiedades y restricciones conocidas para el sistema exacto. Esto ha dado lugar a lo que John Perdew ha llamado “la escalera de Jacob”, en la que en el primer escalón se encuentra el método lda, en el segundo escalón se incorporan términos que contienen a la primera derivada de la densidad con respecto a la posición, en el siguiente escalón se incorporan términos que contienen a la segunda derivada de la densidad con respecto a la posición y a la densidad de energía cinética en términos de los orbitales, posteriormente, en los escalones subsecuentes se incorporan términos más complicados que contienen al intercambio exacto. En cada escalón, además de los términos adicionales, se incorporan propiedades y restricciones que cumple el sistema exacto, de manera que al ascender los escalones vamos incrementado la precisión de los cálculos. Es importante señalar que por este camino no se utiliza en ningún momento información experimental o de otros cálculos y es, por lo tanto, un camino no empírico de generación de funcionales de intercambio y correlación.


Situación actual y futura
de los cálculos de estructura electrónica


Ya sea por el camino variacional (ci) o por el perturbativo (mpn) está claro que, dado un conjunto de base, estos métodos proporcionan una manera sistemática de mejorar la calidad de la función de onda y, de esta manera, reducir los errores en las predicciones de propiedades moleculares. Muchos grupos de investigación han hecho esfuerzos por tener rutinas cada vez más rápidas y que exploten los avances en la tecnología computacional como la vectorización o el paralelismo. Una manera de apreciar la importancia de estos desarrollos algorítmicos y de la tecnología computacional es a través del escalamiento, el cual nos dice para un problema de tamaño N (N es el número de electrones o el tamaño de la base), cuál es el tiempo y la magnitud de los recursos de cómputo que se requieren para obtener la solución del mismo. La tabla 1 muestra los escalamientos formales de los métodos convencionales de la química cuántica y los errores promedio en la energía de correlación respecto a un cálculo de interacción de configuraciones completo (ci), para las moléculas HB, H2O y HF en sus geometrías de equilibrio y con una base fija de tamaño intermedio. Se puede apreciar que para disminuir tres órdenes de magnitud el error en la energía se requiere de un incremento en el esfuerzo computacional de seis órdenes de magnitud, con lo que se puede entender la razón por la cual los cálculos con métodos altamente correlacionados sólo se realizan en moléculas pequeñas.

En las líneas anteriores nos hemos referido al escalamiento formal que, en general, es distinto del escalamiento real de un código, pues a lo largo de los años se han encontrado algoritmos o procedimientos numéricos que agilizan diversas partes de los cálculos. Técnicas como un análisis de pre-apantallamiento (prescreening) y algoritmos para la evaluación de las integrales moleculares abaten estos escalamientos.

Otra manera de apreciar el significado del escalamiento es mediante las tendencias mostradas en la siguiente figura donde se hace un pronóstico de cuál será el número de átomos que pueda estudiarse, en tiempos razonables, con tres métodos representativos de estructura electrónica. Para la generación de estas curvas se consideró tanto el escalamiento de cada método, como la regla de Moore, que establece que las capacidades computacionales, tanto en velocidad de procesamiento como en almacenamiento de información, se duplican cada dos años. La tendencia rotulada como dft (N3) corresponde al comportamiento de códigos que resuelven las ecuaciones de Kohn-Sham utilizando lo que se conoce como resolución de la identidad (ri, por sus siglas en inglés: Resolution of the Identity) o ajuste variacional de la densidad auxiliar. A pesar de algunas diferencias en su instrumentación, estos dos caminos son equivalentes y un aspecto relevante es que ambos evitan la evaluación de los términos más costosos desde el punto de vista computacional que son las integrales bielectrónicas de cuatro centros. Este simple hecho reduce el escalamiento formal de N4 a N3, con la tendencia que se muestra en la figura. La línea verde etiquetada como dft-Lineal corresponde a cualquier método de estructura electrónica que escale de manera lineal. Le anteponemos dft, pues nuestro conocimiento actual sólo nos permite prever que la descripción más completa de sistemas moleculares complejos se alcance con esta metodología. Para apoyar esta afirmación se incluye en la figura la curva roja que corresponde a la tendencia del método convencional más preciso y más caro, computacionalmente hablando. Actualmente se hacen esfuerzos por alcanzar tendencias lineales en métodos convencionales pero no se espera que en una década se pueda tener un escalamiento lineal con un método convencional que proporcione la misma calidad en las propiedades moleculares predichas que las correspondientes a la dft.

Sin embargo, la historia de la ciencia nos demuestra que si algo es cierto en esta fascinante actividad humana es la sorpresa, por lo que no descartemos que en los próximos años algún o algunos grupos de investigación encuentren derroteros, hoy desconocidos, para abordar el problema de la estructura electrónica de sistemas complejos por métodos convencionales. Los pronósticos son impresionantes y fascinantes. Al término del primer cuarto de este siglo se podrán estudiar, con todos los electrones y con una metodología a primeros principios basada en la dft lineal, sistemas moleculares con algunas centenas de miles de átomos.


Conceptos de reactividad química en la teoría de funcionales de la densidad


Como hemos visto en las secciones anteriores, de la aplicación de la mecánica cuántica al estudio de la estructura de moléculas surgen varios conceptos que son muy relevantes para el estudio de la reactividad química. La función de onda electrónica y la superficie de energía potencial contienen información fundamental sobre la estructura, propiedades y transformaciones que puede sufrir una
especie química, cuando interaccione con
otras. Sin embargo, la complejidad matemática asociada con estas cantidades no permite visualizar de una manera simple la información química más relevante.

En los últimos treinta años, la teoría de funcionales de la densidad ha sido utilizada para generar lo que puede considerarse como una formulación general para la descripción de la reactividad química. Los conceptos que emergen de esta teoría son funciones de respuesta que se expresan en términos de derivadas de la energía y de la densidad electrónica con respecto al número de electrones y al potencial externo (el potencial generado por los núcleos de la molécula o por los núcleos y los electrones de otras moléculas). De esta manera los conceptos se expresan en términos de cantidades conceptualmente sencillas, pero al mismo tiempo con un gran significado químico. El pionero en esta importante vertiente de la dft es Robert G. Parr, quien junto con sus estudiantes y colaboradores desarrollaron una novedosa y útil teoría de reactividad química.

El punto de partida de la teoría de funcionales de la densidad de la reactividad química es la identificación del concepto de electronegatividad de Pauling con el negativo del potencial químico de los electrones, ya que éste es igual a la derivada de la energía con respecto al número de electrones a potencial externo constante (para una posición fija de los núcleos). El potencial químico es una variable fundamental en la teoría de funcionales de la densidad, la cual mide la tendencia de escape de los electrones de un sistema. Los electrones fluyen de regiones con un potencial químico alto hacia regiones con un potencial químico bajo, y el flujo se detiene cuando el potencial químico es uniforme (igual) en todo el espacio. De esta manera, si deseamos saber cuál es la dirección natural de transferencia de carga entre dos sistemas químicos, basta fijarse en los valores de sus potenciales químicos. El potencial químico es, por lo tanto, el negativo de la electronegatividad, y el principio de igualación de electronegatividades de Sanderson corresponde simplemente a la igualación de potenciales químicos. Cabe hacer notar el paralelismo de esta teoría con la termodinámica clásica.

El siguiente paso en la teoría de funcionales de la densidad de la reactividad química es la identificación del concepto de dureza de Pearson con la segunda derivada de la energía con respecto al número de electrones, a potencial externo constante. Esta definición implica que la dureza también es igual a la primera derivada del potencial químico, o del negativo de la electronegatividad, con respecto al número de electrones, lo que implica que la dureza es una medida de la resistencia de un sistema a transferir carga. La blandura, que se puede definir como el inverso de la dureza, es una medida de la facilidad con que un sistema cede carga. Es decir, una especie química con un valor grande de la dureza (que equivale a
un valor pequeño de la blandura), indica que se trata de una especie poco propensa a ceder carga, mientras que una especie química con un valor pequeño de la dureza (que equivale
a un valor grande de la blandura), indica que se trata de una especie muy propensa a ceder carga. Es importante señalar que a través de esta definición de dureza se puede demostrar que el equilibrio en las reacciones de intercambio de ácidos y bases de Lewis se desplaza, energéticamente, en la dirección de la formación de enlaces entre el ácido duro y la base dura y entre el ácido blando y la base blanda, de acuerdo con el principio de ácidos y bases duros y blandos, enunciado empíricamente en la década de 1960 por Pearson.

La aproximación por diferencias finitas a la primera y a la segunda derivadas de la energía con respecto al número de electrones (incrementos o decrementos de un número entero de electrones en lugar de una fracción de ellos), lleva a que


Electronegatividad ≈ (I + A)/2

y

Dureza ≈ (IA).


En estas expresiones I representa al primer potencial de ionización, que corresponde con la energía necesaria para remover el primer electrón de una molécula con N electrones, y A representa a la afinidad electrónica, que es la energía que se gana cuando se le adiciona un electrón a una molécula con N electrones. El primer potencial de ionización mide la capacidad de un sistema para ceder un electrón completo, mientras que la afinidad electrónica mide la capacidad de un sistema para aceptar un electrón completo.

Una evidencia muy sólida a favor de la identificación de la electronegatividad y la dureza como la primera y la segunda derivadas con respecto al número de electrones proviene de estas ecuaciones, ya que cuando se utilizan los valores conocidos de I y de A para calcular la electronegatividad y la dureza, la tendencia que se obtiene de los valores correspondientes a las diferentes familias químicas, es la misma que la que proviene de escalas empíricas construidas de manera intuitiva.

Ahora bien, en la etapa inicial de cualquier interacción entre dos especies químicas, al estar una especie en presencia de la otra, surgen interacciones entre los electrones y núcleos de ambas especies, que equivalen a cambios en el potencial externo que los electrones de una y otra especie sienten. Por lo tanto, las derivadas de la energía, del potencial químico y de la dureza con respecto al potencial externo proporcionan información sobre la respuesta local (dependiente de la posición) de una molécula cuando está en presencia de un reactivo.

El primer caso de respuesta local es el que surge de la variación de la energía respecto al potencial externo manteniendo constante al número de electrones, que es igual a la densidad electrónica, ρ(r), del sistema. El siguiente caso de respuesta local, con mucha información química, es el correspondiente a la variación del potencial químico respecto al potencial externo cuando el número de electrones es constante, la cual también está dada por la primera derivada de la densidad con respecto al número de electrones y se conoce como la función de Fukui, f (r). Finalmente, en el tercer caso, la respuesta local surge de la variación de la dureza respecto al potencial externo cuando el número de electrones es constante, que es igual a la segunda derivada de la densidad con respecto al número de electrones y se conoce como el descriptor dual, Δ f (r).

Es importante señalar que la función de Fukui asociada al proceso de donar carga, f (r), es diferente de la función de Fukui asociada al proceso de aceptar carga, f + (r) (véase figura de esta página). La función de Fukui nos dice, desde el punto de vista energético, la forma más estable en que se distribuye la carga que se transfiere en un evento químico. Es decir, si la molécula va a recibir carga, la función de Fukui asociada con el proceso de aceptación de carga nos dice en qué partes va a recibir la carga, mientras que si la molécula va a ceder carga, la función de Fukui asociada con el proceso de donación de carga nos va a decir de qué regiones la va a donar. De esta manera, la función de Fukui relacionada con el proceso de aceptar carga describe los sitios susceptibles de recibir un ataque nucleofílico, mientras que la función de Fukui relacionada con el proceso de donar carga describe los sitios susceptibles de recibir un ataque electrofílico.

El nombre de función de Fukui proviene del hecho de que esta derivada se reduce a los llamados orbitales de frontera bajo ciertas aproximaciones. Los orbitales de frontera de una especie química se definen como el orbital ocupado de mayor energía, homo (por sus siglas en inglés: Highest Occupied Molecular Orbital), y el orbital desocupado de menor energía, lumo (por sus siglas en inglés: Lowest Unoccupied Molecular Orbital). La teoría de orbitales de frontera, propuesta por Kenichi Fukui, se basa en la idea de que en una interacción entre dos especies químicas, los principales cambios se dan entre estos orbitales y, por lo tanto, del análisis de ellos uno puede inferir cuál será el curso de la reacción. Si se considera que al ceder carga el único orbital que cambia es el homo, esto es, si se desprecian los efectos de relajación, la función f (r) se reduce a la densidad del homo, mientras que si se desprecian los efectos de relajación asociados con la adición de carga, la función f+ (r) se reduce a la densidad del lumo.

Deseamos subrayar que el potencial químico (electronegatividad) y la dureza son parámetros de reactividad de tipo global, ya que caracterizan a la molécula como un todo, mientras que la densidad electrónica, la función de Fukui y el descriptor dual son parámetros de tipo local, pues sus valores dependen de la posición dentro de la molécula. Así, los primeros nos dan información sobre tendencias globales de reactividad, y los segundos información sobre la selectividad de los diferentes sitios de una molécula. Todas estas cantidades se pueden obtener a partir de cálculos de estructura electrónica como los descritos en las secciones anteriores, de manera que podemos visualizar a la teoría de funcionales de la densidad de la reactividad química como un puente que nos permite transformar la compleja información contenida en la función de onda, en información que tiene un gran significado desde el punto de vista químico.


La química teórica en México


Como dijimos al inicio de este capítulo, la química teórica se compone de dos grandes ramas, la química cuántica y la física estadística. En México, la física estadística se ha desarrollado fundamentalmente en escuelas, facultades e institutos vinculados con la física, por lo que sugerimos al lector leer el capítulo de “Física estadística” desarrollado en el volumen de Física, para conocer los detalles de este campo de estudio y las instituciones mexicanas que han participado en su desarrollo.

A continuación señalaremos brevemente el desarrollo de la química teórica en México, en la parte referente a la química cuántica convencional y a la teoría de funcionales de la densidad.

Los primeros grupos de química cuántica en México surgen durante la década de 1960 en los institutos de Química y de Física, y en la Facultad de Química de la Universidad Nacional Autónoma de México (unam). Estos grupos se fortalecieron de una manera importante durante la década de 1970. En este periodo, en los institutos de Física y de Química se consolidan grupos de investigación en técnicas ab initio y semiempírcas para el estudio de la estructura electrónica de átomos y moléculas, mientras que en la Facultad de Química se consolida un grupo orientado al desarrollo y aplicaciones de la teoría de funcionales de la densidad.

A mediados de la década de 1970, la recién creada Universidad Autónoma Metropolitana forma un grupo de investigación en química cuántica, en el Departamento de Química de la Unidad Iztapalapa, y a principios de la
década de 1980 se amplía este grupo con
la incorporación de algunos investigadores provenientes de la unam, orientados a los temas vinculados con la teoría de funcionales de la densidad. Así, durante la década de 1980 son, fundamentalmente, los grupos de las diferentes dependencias de la unam y el grupo de la uam-Iztapalapa, los que contribuyen al desarrollo de la química teórica desde México.

A partir de la década de 1990 inicia la integración de grupos de química teórica en otras instituciones. En la actualidad se pueden identificar grupos en este campo disciplinario en la unam, principalmente en las facultades de Química y en las de estudios superiores de Cuautitlán y de Zaragoza, en los institutos de Química, de Física, de Investigaciones en Materiales y de Ciencias Físicas, y en los centros de Nanociencias y Nanotecnología y de Investigación en Energía; en la uam, en las Unidades Iztapalapa, Azcapotzalco y Cuajimalpa; en el Centro de Investigación y de Estudios Avanzados, en los campus de Zacatenco, de Mérida y de Querétaro; en el Instituto Mexicano del Petróleo; en el Centro de Investigación en Materiales Avanzados en Chihuahua; en la Universidad de Guanajuato, en la Facultad de Química; en la Benemérita Universidad Autónoma de Puebla, en el Instituto de Física y en la Facultad de Ciencias Químicas; en la Universidad Autónoma del Estado de Morelos, en la Facultad de Ciencias; en la Universidad Autónoma del Estado de Hidalgo, en el Centro de Investigaciones Químicas del Instituto de Ciencias Básicas e Ingeniería; y en la Universidad Veracruzana, en la Unidad de Servicios de Apoyo en Resolución Analítica.

Desde 2002 se organiza, anualmente, la Reunión Mexicana de Fisicoquímica Teórica, en la que cada vez participa un mayor número de jóvenes científicos mexicanos que han decidido dedicarse a realizar actividades de investigación en física, química y biología, utilizando la química cuántica, la física estadística y la teoría de funcionales de la densidad. Se espera que en los próximos años se formen nuevos grupos de investigación en química teórica, en varias universidades estatales y centros de investigación pues, en la actualidad, la investigación en los diferentes campos de la química requiere del trabajo experimental y del trabajo teórico.


Perspectivas


En 1830, Augusto Comte escribió


cualquier intento de utilizar métodos matemáticos en el estudio de temas de química debe considerarse profundamente irracional y contrario al espíritu de la química. Si el análisis matemático alguna vez ocupara un lugar prominente en la química –una aberración que felizmente es prácticamente imposible– ocasionaría la rápida y amplia degeneración de esa ciencia.

Con el nacimiento de la mecánica cuántica, en 1929, Paul A. M. Dirac dijo:


Las leyes físicas subyacentes necesarias para la teoría matemática de ... toda la química son por lo tanto completamente conocidas, y la dificultad es sólo que la aplicación exacta de estas leyes lleva a ecuaciones muy complicadas de resolver.


Adicionalmente, Dirac también dijo lo siguiente:


Deberían desarrollarse métodos prácticos aproximados de la aplicación de la mecánica cuántica, que puedan guiar a una explicación de las características principales de sistemas atómicos complejos sin demasiados cálculos.


A lo largo de este capítulo hemos visto que la química cuántica se ha encargado de contradecir el pensamiento de Comte y de hacer realidad el sueño de Dirac. En particular, podemos afirmar que la teoría de funcionales de la densidad, junto con el desarrollo sorprendente y vertiginoso de las capacidades de cómputo en las últimas décadas, le han dado un gran impulso a la química teórica. En la actualidad, en todos los centros de investigación en química, física y biología se utilizan paquetes computacionales que permiten realizar cálculos de estructura electrónica. Los resultados de estos cálculos se utilizan, junto con la información experimental, para alcanzar una mejor comprensión de los problemas que se abordan.

Así, en los próximos años podemos esperar una intensa actividad, entre otros, en los siguientes temas:


La reducción del escalamiento, para abordar problemas con un número muy grande de átomos.

El desarrollo de funcionales de intercambio y correlación con una precisión que abata la barrera de 1 kcal/mol y el tratamiento con dft de sistemas con electrones fuertemente correlacionados.

El desarrollo de nuevos criterios de reactividad química, que permitan analizar de una manera sencilla la información contenida en la función de onda y en la densidad electrónica de sistemas complejos.

El desarrollo de métodos de dinámica molecular, tanto clásica como cuántica, para el estudio detallado de procesos químicos.

La descripción de los estados excitados de un sistema y su relación con diversos fenómenos químicos.


Estimula pensar que cerca de cumplirse cien años del surgimiento de la mecánica cuántica, el intelecto humano y el esfuerzo de muchos investigadores han hecho de la química teórica una herramienta indispensable para el estudio de las sustancias, su composición, estructura, propiedades y transformaciones.

BIOLOGIABIOLOGIA_HOME.htmlshapeimage_7_link_0
INICIOEMC_COSMOS_HOME.htmlshapeimage_23_link_0
DIVULGACION DE LA CIENCIADIVULGACION_DE_LAS_CIENCIAS.htmlshapeimage_25_link_0
RECTORIA GENERALhttp://livepage.apple.com/http://www.uam.mx/identidad/himno/index.htmlshapeimage_27_link_0
UAM IZTAPALAPAhttp://livepage.apple.com/http://www.izt.uam.mx/shapeimage_29_link_0
Presentación particular

Historia de la Química en México

Química analítica

Fisicoquímica

Química de elementos representativos

Química orgánica

Química de coordinación

Química organometálica

Biofisicoquímica

Química supramolecular

Química teórica

Química verde

Electroquímica
QUIMICA_HOME.htmlHISTORIA_DE_LA_QUIMICA.htmlHISTORIA_DE_LA_QUIMICA.htmlQUIMICA_ANALITICA.htmlFISICOQUIMICA.htmlQUIMICA_DE_ELEMENTOS.htmlQUIMICA_DE_ELEMENTOS.htmlQUIMICA_ORGANICA.htmlQUIMICA_DE_CORDINACION.htmlQUIMICA_DE_CORDINACION.htmlQUIMICA_ORGANOMETALICA.htmlBIOFISICOQUIMICA.htmlQUIMICA_SUPRAMOLECULAR.htmlQUIMICA_VERDE.htmlELECTROQUIMICA.htmlshapeimage_31_link_0shapeimage_31_link_1shapeimage_31_link_2shapeimage_31_link_3shapeimage_31_link_4shapeimage_31_link_5shapeimage_31_link_6shapeimage_31_link_7shapeimage_31_link_8shapeimage_31_link_9shapeimage_31_link_10shapeimage_31_link_11shapeimage_31_link_12shapeimage_31_link_13shapeimage_31_link_14

13 de octubre de 2009

http://www.uam.mx
http://www.conacyt.mx/
http://www.icyt.df.gob.mx/
descarga 
QuickTimehttp://www.apple.com/quicktime/download/