Empowering the Next Generation of Women in Audio

Join Us

Acoustic Insulation or Conditioning, What Does My Room Really Need?

When selecting our musical instruments, amplifiers, effects rack, monitors, audio interfaces, etc … we are generally extremely selective.  since for some of us, it would be unacceptable to put at risk the quality of our sound.  But how is it that many times even having the most ideal equipment we find a not so optimal result? We immediately begin to judge our purchase, or worse even our ears or abilities. When that answer might be in front of us…  on the sides and behind, That’s right. The Acoustics of our Room.

We must remember first that sound is the interpretation that our brain makes through the ears of a set of vibrations (sound waves) propagating in a suitable medium, in our case most common air.  And acoustics is the response of those vibrations to a certain sensation.    Let’s talk about these sound waves.

These., are taking a tour of the entire room, before reaching our ears, colliding on all surfaces, and absorbing many elements of the environment. It is for that reason that we always listen with different characteristics, even if it is the same sound source, for example. , the difference we can find when listening to our violin in an auditorium as we would in our room. Or the sound of our voice in a classroom, unlike how it is heard in a bathroom, another example, would be when we hear the same sound source in the same room before and after a move (that is, without the furniture and then with all of them) but,  acoustics not only tells us about what happens inside a room but also how the outside can influence our sound source and vice versa. For example. , if our room has a window facing the street, all external sound filtration influences.  Similarly, if our case were that the room we are taking as a reference is inside a small house, and our sound source affects the other environments that adjoin it. By paying attention to these details, we can realize that audio as the result depends on many factors. And paying attention to all of them is of the utmost importance so that our final result is the desired one.  So, we return to our initial question What do I really need? to give a more concrete answer to this, let’s rather than define the difference between the concepts of insulation and acoustic conditioning.  So, let’s see…

Conditioning Acoustic

When we talk about acoustic conditioning, we refer to everything related to treatments, techniques, tools, or any type of system that allows us to control, improve or modify the interior of the enclosure with which we want to interact, always in order that our sound source to capture or capture is as close to the natural or desired sound.

 

Sound Insulation

This could basically be conceptualized, as controlling what comes out and enters noise/sound to our enclosure. Through materials, treatments, techniques, and any type of system that allows control and/or absorption.

In other words, sound insulation would be the level of sound attenuation that exists between the enclosure and the outside.

 

Having these definitions, we approach a clearer way to our response; we can address with greater knowledge the problems that have always surrounded our enclosure. Attacking key points such as, for example, if we talk about acoustic conditioning our objectives would be, to control the reverberation times present in the space, (these may vary, depending on the type of work to be done or the enclosure that we are conditioning, but in general they are short times that seek homogeneity in the frequencies)

Also, one of our objectives within acoustic conditioning would be to attack these problematic frequencies. The bass frequencies are special, these tend to accentuate the corners of the room. and they generate a really distorted sound image of how the low frequencies are sounding through our monkeys (this is one of those reasons why many times we hear our sound mix so different at home and then when playing it on some device .  we can not deceive our ears anymore), it is for this last reason that I would like to mention one more objective within this article, about acoustic conditioning, this one talks about., the diffusion of reverberation.  This supports us in such a way that we can hear in a very clear way the direct sound of our monitors and that the reverberation resulting from them does not interfere in a counterproductive way with the rest of the room.

 

Developing this topic in detail becomes a broad task, and very interesting since within the acoustic conditioning we will find, then. In short, everything that happens within a receptor, speaking of acoustics.

 

 

But what if our problem is out of it? That’s where the targets to attack related to sound insulation come in.

This seeks that none of the external sounds interfere with the work that is done inside the enclosure, because let’s say that we are creating a kind of “hermeticism”, likewise we take care that unwanted sounds do not leave our room to the outside.

To achieve this sometimes-structural modifications are needed since they influence many things like, what material are the walls of our enclosure made of, if we have windows, if our windows are sealed or not, the material of our door, etc … to achieve the desired point of isolation.

 

This is a really challenging mission, but with this, I do not want to say that it is out of our reach, we can try with different treatments and materials if they are and are placed in the right places and go little by little to achieve significant advances.

Now that we have a wider view, we can define in a slightly clearer way what happens in our room, and thus reach a conclusion about What does my room need? This does not mean that both can not be combined, sometimes the output can be a hybrid between both acoustic solutions. The most important thing is to know the difference to know how and in what way to attack the key points and to be able to obtain the most natural, optimal, or desired sound source.

 

Written By: Maria Fernanda Medina is from Tegucigalpa Honduras. She has a BA in Acoustic Technology and Digital Sound from the Galileo University in Guatemala City. Maria Fernanda has mainly worked in live audio field as a freelancer, and with audio rental companies. Developing herself in the Backline, Stage manager, and Production. Both international concerts and national festivals. “Currently, my passion is for audio and social commitment that I feel with my country, that has guided me in the dissemination and education. I’m enjoying this facet of my life that I get to explore more every day

Entendiendo los convertidores AD/DA

Generalmente, un conversor analógico-digital es un dispositivo electrónico que convierte una entrada analógica de voltaje a un número digital. La salida digital puede usar diferentes esquemas de codificación, como binario, aunque algunos dispositivos no eléctricos o parcialmente eléctricos pueden ser considerados como conversores analógicos-digitales.

La resolución de un conversor indica el número de valores discretos que este puede producir sobre un rango de valores de voltaje. Generalmente es expresado en bits.

Por ejemplo, un conversor que codifica una entrada analógica de 1 a 256 valores discretos (0..255) tiene una resolución de 8 bits: o sea, 2 elevado a 8. La resolución puede también ser definida eléctricamente y expresarse en volts.

SISTEMA ANALOGICO Y SISTEMA DIGITAL.

Los circuitos electrónicos se pueden dividir en dos amplias categorías: digitales y analógicos. La electrónica digital utiliza magnitudes con valores discretos, mientras que la electrónica analógica emplea magnitudes con valores continuos.

Un sistema digital es cualquier dispositivo destinado a la generación, transmisión, procesamiento o almacenamiento de señales digitales. Así, el sistema digital,  es una combinación de dispositivos diseñado para manipular cantidades físicas o información que estén representadas en forma digital; es decir, que sólo puedan tomar valores discretos.

Para la implementación de los circuitos digitales, se utilizan puertas lógicas (AND, OR y NOT) y transistores. Estas puertas siguen el comportamiento de algunas funciones.

Un sistema es analógico cuando las magnitudes de la señal se representan mediante variables continuas, esto es análogas a las magnitudes que dan lugar a la generación de esta señal. Un sistema analógico contiene dispositivos que manipulan cantidades físicas representadas en forma analógica. En un sistema de este tipo, las cantidades varían sobre un intervalo continuo de valores.

Así, una magnitud analógica es aquella que toma valores continuos. Una magnitud digital es aquella que toma un conjunto de valores discretos.

Una señal analógica es un voltaje o corriente que varía suave y continuamente. Una onda senoidal es una señal analógica de una sola frecuencia. Los voltajes de la voz y del video son señales analógicas que varían de acuerdo con el sonido o variaciones de la luz que corresponden a la información que se está transmitiendo.

Las señales digitales, en contraste con las señales analógicas, no varían en forma continua, sino que cambian en pasos o en incrementos discretos.

Ventajas de los Circuitos Digitales

El método de procesado digital de señales también posibilita la implementación de algoritmos de procesado de señal más sofisticados. Generalmente es muy difícil realizar operaciones matemáticas precisas sobre señales en formato analógico, pero esas mismas operaciones pueden efectuarse de modo rutinario sobre un ordenador digital utilizando software.

El conversor ADC (Analog-to-Digital Converter – Conversor Analógico Digital) tiene que efectuar los siguientes procesos:

1.- Muestreo de la señal analógica.
2.- Cuantización de la propia señal
3.- Codificación del resultado de la cuantización, en código binario.

La representación gráfica de medio ciclo positivo (+) , correspondiente a una señal eléctrica analógica de sonido, con sus correspondientes armónicos. Como se podrá observar, los valores de variación de la tensión o voltaje en esta sinusoide pueden variar en una escala.

Para convertir una señal analógica en digital, el primer paso consiste en realizar un muestreo (sampling) de ésta, o lo que es igual, tomar diferentes muestras de tensiones o voltajes en diferentes puntos de la onda senoidal. La frecuencia a la que se realiza el muestreo se denomina razón, tasa o también frecuencia de muestreo y se mide en kilohertz (kHz). En el caso de una grabación digital de audio, a mayor cantidad de muestras tomadas, mayor calidad y fidelidad tendrá la señal digital resultante.

Durante el proceso de muestreo se asignan valores numéricos equivalentes a la tensión o voltaje existente en diferentes puntos de la sinusoide, con la finalidad de realizar a continuación el proceso de cuantización.

Las tasas o frecuencias de muestreo más utilizadas para audio digital son las siguientes:

Para realizar el muestreo (sampling) de una señal eléctrica analógica y convertirla después en digital, el primer paso consiste en tomar valores discretos de tensión o voltaje a intervalos regulares en diferentes puntos de la onda senoidal.

Por tanto, una señal cuyo muestreo se realice a 24 kHz, tendrá menos calidad y fidelidad que otra realizada a 48 kHz. Sin embargo, mientras mayor sea el número de muestras tomadas, mayor será también el ancho de banda necesario para transmitir una señal digital, requiriendo también un espacio mucho mayor para almacenarla.

La cuantización representa el componente de muestreo de las variaciones de valores de tensiones o voltajes tomados en diferentes puntos de la onda sinusoidal, que permite medirlos y asignarles sus correspondientes valores en el sistema numérico decimal, antes de convertir esos valores en sistema numérico binario.

Después de realizada la cuantización, los valores de las tomas de voltajes se representan numéricamente por medio de códigos y estándares previamente establecidos. Lo más común es codificar la señal digital en código numérico binario.

Un ejemplo de sistema electrónico analógico es el altavoz, que se emplea para amplificar el sonido de forma que éste sea oído por una gran audiencia. Las ondas de sonido que son analógicas en su origen, son capturadas por un micrófono y convertidas en una pequeña variación analógica de tensión denominada señal de audio. Esta tensión varía de manera continua a medida que cambia el volumen y la frecuencia del sonido y se aplica a la entrada de un amplificador lineal.

La salida del amplificador, que es la tensión de entrada amplificada, se introduce en el altavoz. Éste convierte, de nuevo, la señal de audio amplificada en ondas sonoras con un volumen mucho mayor que el sonido original captado por el micrófono.

Existen sistemas que utilizan métodos digitales y analógicos, uno de ellos es el reproductor de disco compacto (CD). La música en forma digital se almacena en el CD. Un sistema óptico de diodos láser lee los datos digitales del disco cuando éste gira y los transfiere al convertidor digital-analógico (DAC, digital-to-analog converter). El DAC transforma los datos digitales en una señal analógica que es la reproducción eléctrica de la música original. Esta señal se amplifica y se envía al altavoz. Cuando la música se grabó en el CD se utilizó un proceso que, esencialmente, era el inverso al descrito, y que utiliza un convertidor analógico digital (ADC, analog-to-digital converter).

 

 

La fase y el filtro de peine

“La suma es una forma de juego acústico donde la amplitud relativa fija la apuesta y la fase relativa decide al ganador.”

Bob McCarthy

A lo largo de este articulo hablaremos sobre que es la fase y como es que afecta nuestras mediciones. Estos conceptos nos darán claridad en qué posición usar nuestro micrófono de medición, con estas técnicas logro conseguir grandes resultados en mis mediciones.

Qué es la fase?

La fase está relacionada al tiempo, aunque debemos tomar en cuenta que no es la única variable que puede modificar la fase.

Para tener más claro de que trata la fase debemos recordar que el periodo (T) es el tiempo que le toma a una onda desenvolver un ciclo completo de una determinada frecuencia. Matemáticamente:

T (segundos) =1sfrecuencia   o T(milisegundos)=1000ms/frecuencia

Es importante tomar en cuenta que para las frecuencias audibles (20 Hz – 20,000 Hz) hay una relación de 1:1,000. Esto significa que el periodo de 20 Hz (50 ms) es mil veces mayor al de 20,000 Hz (0.05ms).

Tomando en cuenta estos detalles entremos en materia.

Si pensamos en una onda senoidal y en su semejanza con un círculo “desdoblado”, pensaríamos que podemos expresar en qué posición de la onda senoidal nos encontramos por medio de grados.

Siendo 0° el inicio de la onda, 90° el valor de máxima amplitud, 180° media onda, 270° la mínima amplitud y 360° el fin de un ciclo completo (y el inicio del siguiente).

Pensando en esto podemos asociar la fase y la amplitud de una onda al tiempo. Veamos la siguiente expresión.

Siendo:
ΔØ la fase resultante
Δt el tiempo en el que se hace el análisis (en milisegundos)
f la frecuencia

Pensando en esta expresión matemática podemos darnos cuenta que la fase es directamente proporcional a la frecuencia y al tiempo transcurrido. Hagamos un análisis de que sucede con la fase si pasa 1 ms desde que inicia una señal.

Fase resultante después de 1 ms:

100 Hz = 36°

500 Hz = 180°

1,000 Hz = 360°

1,500 Hz = 540°

2,000 Hz = 720°

10,000 Hz = 3,600°

La fase nos ayuda a saber cuántos ciclos o fracciones de ciclo han pasado al transcurrir un determinado tiempo. Cabe resaltar que la fase es una característica de las ondas y no es necesario que haya más de una señal para poder hacer un análisis al respecto.

Qué ocurre cuando interactúan 2 señales?

Hasta ahora hemos hablado de la fase en una sola señal y esto no parece tener mayor complicación, me atrevo a decir que mucho de nosotros incluso no recordamos que la fase existe hasta que no tenemos más de una señal correlacionada interactuando. La relación de fase entre 2 señales correlacionadas determina cual será el resultado de la suma de dichas señales.

Hagamos un ejercicio.
Vamos a usar 2 generadores de tonos para generar en ambos 1,000 Hz con una amplitud de 0dB.
Veremos en un osciloscopio las señales de los generadores y la suma de ambas señales.

En esta  imagen podemos observar que ambos generadores tienen la misma amplitud y la misma fase. Si observamos la curva “Resultante”, que es la suma de ambas señales, podemos notar como la amplitud se ha duplicado. Si expresamos el resultado en dBs diríamos que:

En esta imagen podemos observar que hay una diferencia de fase de 90° entre las señales. Si observamos la curva “Resultante” podemos notar como la amplitud ha sumado solo hasta 1.41 y que la fase de la señal resultante ha tomado el valor medio entre ambas señales. Si expresamos el resultado en dBs diríamos que:

En esta imagen podemos observar que hay una diferencia de fase de 120° entre las señales. Si observamos la curva “Resultante” podemos notar como la amplitud no ha sumado nada y que la fase de la señal resultante ha tomado el valor medio entre ambas señales. Si expresamos el resultado en dBs diríamos que:

En esta imagen podemos observar que hay una diferencia de fase de 150° entre las señales. Si observamos la curva “Resultante” podemos notar como la amplitud se ha atenuado hasta 0.5 y que la fase de la señal resultante ha tomado el valor medio entre ambas señales. Si expresamos el resultado en dBs diríamos que:

 

En esta imagen podemos observar que hay una diferencia de fase de 180° entre las señales. Si observamos la curva “Resultante” podemos notar como la amplitud se ha cancelado por completo. Si expresamos el resultado en dBs diríamos que:

De todo esto podemos concluir que la suma de 2 señales correlacionadas está estrechamente ligada a la relación de fase que hay entre ambas señales. Este comportamiento se resume en la siguiente ecuación.

Donde:

A1 = Amplitud de la señal 1
A2 = Amplitud de la señal 2
Δ∅ = Diferencia de fase entre las señales

Y se resume visualmente en el círculo de fase.

El filtro de peine

En los ejercicios anteriores comprendimos cómo es que la fase determina si hay suma o cancelación al sumar 2 señales, pero debemos tomar en cuenta que en estos ejercicios trabajamos únicamente con tonos senoidales, es decir una sola frecuencia. La realidad es que nosotros no trabajamos con tonos senoidales, ahora debemos analizar que sucede con señales de espectro completo.

Veamos el siguiente ejemplo:

En esta imagen podemos apreciar la suma de 2 señales de espectro completo. Estas señales tienen una diferencia de tiempo de 0.5 ms, que es el periodo de 2,000 Hz. Sabemos que esta diferencia de tiempo afectara de manera diferente a cada frecuencia, veamos algunos ejemplos:

Δ∅=t*360°*f/1000

Δ∅ @500 Hz = 90° (+3dB de suma).

Δ∅ @1,000 Hz = 180° (-100dB de atenuación).

Δ∅ @2,000 Hz = 360° (+6dB de suma).

Δ∅ @3,000 Hz = 540° (-100dB de atenuación).

Δ∅ @4,000 Hz = 720° (+6dB de suma).

Este fenómeno es conocido como filtro de peine, llamado así por la semejanza del grafico a un peine.

Cómo afecta el filtro de peine nuestras mediciones?

Sabemos que el filtro de peine es el resultado de sumar 2 señales correlacionadas con diferencias de tiempo. Cuando realizamos mediciones en campo hay muchas posibles causas del filtro de peine, una de estas causas son las reflexiones.

Podemos imaginar las reflexiones como una imagen fantasma de la señal original pero retrasada en tiempo. La señal reflejada recorre mayor distancia, esto es lo que causa el retraso.


Veamos este ejemplo realizado con un micrófono de medición MM1 de Beyerdynamics y un altavoz de rango completo.

En esta imagen podemos apreciar como la señal directa y la señal reflejada llega al micrófono con diferencia de tiempo. Por medio de la respuesta impulsiva podemos averiguar que la diferencia de tiempo es de 1.67 ms, que es el periodo de 600 Hz. Veamos que sucede en algunas frecuencias al agregar 1.67 ms de diferencia.

Δ∅ @300 Hz = 180° (cancelación)

Δ∅ @600 Hz = 360° (suma)

Δ∅ @900 Hz = 540° (cancelación)

Etc…

Cómo podemos disminuir el filtro de peine en la reflexión?

Ya está claro que el filtro de peine es causado por la diferencia de tiempo entre ambas señales, si queremos eliminar el filtro de peine podríamos:

En esta imagen podemos ver cómo hemos logrado mejorar nuestra medición con tan solo colocar el micrófono en el piso. Estas mediciones son conocidas como “Ground plane”.

Esta medición no elimina la reflexión, en lugar de eso nos hemos acercado tanto a la reflexión que no logramos ver la diferencia de tiempo entre esta y la señal original.

Este tipo de mediciones son de gran ayuda cuando trabajamos en lugares con superficies muy reflejantes, nos permiten centrar la atención en lo que realmente está haciendo el sistema de altavoces. Claro que una persona que esté de pie segura notando la presencia del filtro de peine, pero cuando el recinto este lleno de personas el mismo coeficiente de absorción acústica de los espectadores evitara que la reflexión pueda causar filtros de peine.

Preguntas:

Qué indica la fase?

Cuál es el resultado de sumar 2 tonos con la misma amplitud pero una diferencia de fase de 90°?

Cuál es el resultado de sumar 2 tonos con la misma amplitud pero una diferencia de fase de 180°?

Qué es el filtro de peine?

En que consisten las mediciones “Ground plane”?

Michael “Mija” Krieg Schreiber

Después de que en el 2010 obtuvo un grado en Técnico en Audio, con la especialidad de audio en vivo, tomó una serie de cursos relacionados a la materia, tales como el uso y aplicación del software Smaart,  arreglos lineales, diseño de sistemas de refuerzo sonoro, SIM3, procesadores de arquitectura abierta, entre muchos otros.

Ha trabajado en diversas compañías, producciones, discotecas e instalaciones como instructor, diseñador, técnico y operador de sistemas de sonido reuniendo a la fecha 9 años de experiencia. Entre las compañías, producciones y recintos con los que ha trabajado se encuentran Representaciones de Audio, Meyer Sound México, Hi tech Audio, la Misa papal en San Cristóbal de las Casas 2016, Corona Capital 2014, Auditorio Nacional, Arena Ciudad de México, entre otros.

Hoy en día concentra su carrera en actividades educativas ofreciendo diferentes ponencias y cursos de audio profesional. Entre las escuelas y organizaciones con las que ha colaborado están: Avixa, AES México, Instituto Politécnico Nacional, Instituto Tecnológico y de Estudios Superiores de Monterrey, UNITEC Universidad Tecnológica de México, SAE INSTITUTE México, EMEH Escuela de la Música del Estado de Hidalgo, G Martell, Pro Audio Puebla, entre otras.

 

Phase and Comb Filtering

Summation is a form of acoustical gambling where relative amplitude sets the stakes and relative phase decides the winner. – Bob McCarthy

Throughout this article, we will talk about what is the phase and how it affects our measurements. These concepts will give us clarity in what position to use our measurement microphone; with these techniques I achieve great results in my measurements.

What is the phase?

The phase is related to time, although we must take into account that it is not the only variable that can modify the phase.

To be more clear about what the phase is about, we must remember that the period (T) is the time it takes a wave to develop a complete cycle of a certain frequency. Mathematically:

T (seconds) = 1s/frequency

oT (milliseconds) = 1000 ms/frequency

It is important to take into account that for the audible frequencies (20 Hz – 20,000 Hz) there is a ratio of 1: 1,000. This means that the period of 20 Hz (50 ms) is one thousand times greater than that of 20,000 Hz (0.05 ms).

Taking these details into account, let’s get into the subject.

If we think of a sine wave and its resemblance to an “unfolded” circle, we would think that we can express in what position of the sine wave we are by means of degrees. Being 0 ° the beginning of the wave, 90 ° the value of maximum amplitude, 180 ° half wave, 270 ° the minimum amplitude and 360 ° the end of a complete cycle (and the beginning of the next).

Thinking about this we can associate the phase and the amplitude of a wave to time. Let’s see the following expression.

Being:

ΔØ the resulting phase

Δt the time in which the analysis is done (in milliseconds)

f the frequency

Thinking about this mathematical expression we can realize that the phase is directly proportional to the frequency and time elapsed. Let’s make an analysis of what happens to the phase if it passes 1 ms since it starts a signal.

Resulting phase after 1 ms:

100 Hz = 36 °

500 Hz = 180 °

1,000 Hz = 360 °

1,500 Hz = 540 °

2,000 Hz = 720 °

10,000 Hz = 3,600 °

The phase helps us to know how many cycles or fractions of the cycle have passed after a certain time has elapsed. It should be noted that the phase is a characteristic of the waves and it is not necessary that there is more than one signal to be able to analyze it.

What happens when 2 signals interact?

So far we have talked about the phase in a single signal and this does not seem to have many complications, I dare say that many of us do not even remember that the phase exists until we have more than one correlated signal interacting. The phase relationship between two correlated signals determines what will be the result of the sum of said signals.

Let’s do an exercise.

We are going to use 2 tone generators to generate in both 1,000 Hz with an amplitude of 0dB.

We will see in an oscilloscope the signals of the generators and the sum of both signals.

In this image, we can see that both generators have the same amplitude and the same phase. If we look at the “Resultant” curve, which is the sum of both signals, we can notice how the

amplitude has doubled. If we express the result in dBs we would say that:

 

In this image, we can see that there is a phase difference of 90 ° between the signals. If we observe the “Resultant” curve we can notice how the amplitude has only added up to 1.41 and that the phase of the resulting signal has taken the average value between both signals. If we express the result in dBs we would say that:

 

In this picture, we can see that there is a phase difference of 120 ° between the signals. If we observe the “Resultant” curve we can notice how the amplitude has not added up anything and that the phase of the resulting signal has taken the average value between both signals. If we express the result in dBs we would say that:

In this image, we can see that there is a phase difference of 150 ° between the signals. If we observe the “Resultant” curve we can notice how the amplitude has been attenuated up to 0.5 and that the phase of the resulting signal has taken the average value between both signals. If we express the result in dBs we would say that:

In this image, we can see that there is a 180 ° phase difference between the signals. If we look at the “Resultant” curve we can notice how the amplitude has been canceled completely. If we express the result in dBs we would say that:

From all this, we can conclude that the sum of 2 correlated signals is closely linked to the phase relationship between the two signals. This behavior is summarized in the following equation.

Where:

A1 = Amplitude of signal 1

A2 = Amplitude of signal 2

Δ∅ = Phase difference between signals

And it is visually summarized in the phase circle.

The comb filter

In the previous exercises, we understood how the phase determines whether there is a sum or cancellation when adding 2 signals, but we must take into account that in these exercises we work only with sinusoidal tones, that is, a single frequency. The reality is that we do not work with sinusoidal tones, now we must analyze what happens with full-spectrum signals.

Let’s see the following example:

In this image, we can see the sum of 2 full-spectrum signals. These signals have a time difference of 0.5 ms, which is the period of 2,000 Hz. We know that this difference in time will affect each frequency differently, let’s see some examples:

Δ∅ @ 500 Hz = 90 ° (+ sum 3dB).

Δ∅ @ 1,000 Hz = 180 ° (-100dB attenuation).

Δ∅ @ 2,000 Hz = 360 ° (+ 6dB of sum).

Δ∅ @ 3,000 Hz = 540 ° (-100dB attenuation).

Δ∅ @ 4,000 Hz = 720 ° (+ 6dB sum).

This phenomenon is known as the comb filter, named for the similarity of the graphic to a comb.

How does the comb filter affect our measurements?

We know that the comb filter is the result of adding 2 signals correlated with time differences. When we perform measurements in the field there are many possible causes of the comb filter, one of these causes are reflections.

We can imagine the reflections as a ghost image of the original signal but delayed in time. The reflected signal travels longer, this is what causes the delay.

Let’s see this example done with the  MM1 measuring microphone from Beyerdynamic and a full-range speaker.

In this image, we can see how the direct signal and the reflected signal reach the microphone with a time difference. By means of the impulsive response, we can find out that the time difference is 1.67 ms, which is the 600 Hz period. Let’s see what happens in some frequencies when adding 1.67 ms of difference.

Δ∅ @ 300 Hz = 180 ° (cancellation)

Δ∅ @ 600 Hz = 360 ° (sum)

Δ∅ @ 900 Hz = 540 ° (cancellation)

Etc…

How can we decrease the comb filter in the reflection?

It is already clear that the comb filter is caused by the time difference between both signals, if we want to eliminate the comb filter we could:

In this image, we can see how we have managed to improve our measurement by just placing the microphone on the floor. These measurements are known as “Ground Plane”.

This measurement does not eliminate reflection, instead, we have come so close to the reflection that we can not see the time difference between it and the original signal.

These types of measurements are very helpful when we work in places with very reflective surfaces, allowing us to focus on what the speaker system is really doing. Of course, a person standing sure noticing the presence of the comb filter, but when the room is full of people the same coefficient of sound absorption of the spectators will prevent the reflection can cause comb filters.

Questions:

What does the phase indicate?

The advance or position of a sine wave expressed in degrees

The time difference between 2 speakers

The period of a signal

The polarity of a signal

What is the result of adding 2 tones with the same amplitude but a phase difference of 90°?

+ 3dB

+ 6dB

0dB

-3dB

What is the result of adding 2 tones with the same amplitude but a phase difference of 180 °?

0dB

-6dB

-100dB

You can not know

What is the comb filter?

It is the induction caused by not properly ¨combing the wires¨

It is the result of adding 2 signals correlated with a time difference

It is the result of adding 2 signals not correlated with a time difference

It is the result of adding 2 signals correlated with a reversal of polarity

What are the “Ground Plane” measurements?

In reducing the time difference between the direct signal and the reflected signal in a measurement.

It is about the measurement of the noise that the ants captured during the show.

Remove reflections from the measurement

Reduce the interference caused by the wind


Michael “Mija” Krieg Schreiber

After obtaining an Audio Technician degree in 2010, with a major in live audio, he took a series of courses related to the subject, such as the use of Smaart software, line arrays, the design of reinforcement systems sound, SIM3, processors of open architecture, among many others.

He has worked in various companies, productions, and clubs. He has done installations as an instructor, designer, technician and operator of sound systems, bringing together 9 years of experience to date. Among the companies, productions and venues with which he has worked are Audio Representations, Meyer Sound Mexico, Hi-tech Audio, Papal Mass in San Cristóbal de las Casas 2016, Corona Capital 2014, National Auditorium, Arena Mexico City, among others.

Nowadays he concentrates his career in educational activities offering different presentations and professional audio courses. Among the schools and organizations with which he has collaborated are: Avixa, AES Mexico, National Polytechnic Institute, Technological Institute and Superior Studies of Monterrey, UNITEC Technological University of Mexico, SAE INSTITUTE Mexico, EMEH School of Music of the State of Hidalgo, G Martell, Pro Audio Puebla, among others.

Consideraciones para realizar un diseño de refuerzo Sonoro.

Que es el diseño de refuerzo sonoro? Reproducción del sonido en una determinada área de audiencia mediante medios artificiales, que tienen como finalidad realizar una amplificación del sonido para obtener un nivel de presión sonora homogéneo (se consideran aceptables las diferencias de +-6dB) en todos los puntos del recinto a sonorizar, además de asegurarle la inteligibilidad del mensaje a cada uno de los escuchas.

A continuación, mencionaremos algunas consideraciones a tener en cuenta para el diseño de refuerzo sonoro:

1) Consideraciones acústicas previas. Se deberá realizar un análisis de diferentes parámetros, tales como: Tiempo de Reverberación(RT60), inteligibilidad, Definición (D), Claridad de la voz (C80), RASTI, %ALcons.

PARÁMETRO ACÚSTICO VALOR RECOMENDADO
Tiempo de reverberación medio (500 Hz – 1 kHz), sala llena 0,7 ≤ RTmid ≤ 1,2 s
Claridad de la voz C50(“ speech average), sala llena C50 > 2 dB
Definición D (de 125 Hz a 4 kHz), sala ocupada D > 0,50
Relación primeras reflexiones ERR, sala vacía u ocupada 2 ≤ ERR ≤ 6
STI/RASTI, sala ocupada STI/RASTI ≥ 0,65

 

TIPO DE RECINTO REVERBERACION (s)
Cine 0.4 s
Salón de Clases 0.6 s
Teatro y Música Auto amplificada 1.0 s
Sinfónica 2.2 s
Iglesias 3.0 s

2) Debemos preguntarnos qué tipo de recinto vamos a sonorizar

 

3) Solicitud de planos del reciento a diseñar.  En este punto se recomienda tener medidas del lugar por medio de un scouting al recinto; se deberán solicitar planos en AutoCAD, tanto en vistas en 3D, 2D, plantas y cortes del recinto, para poder realizar un análisis exhaustivo. Asimismo, debemos recordar que este diseño se llevará a cabo en la práctica, por lo que no debemos olvidar hacernos diferentes preguntas que nos permitan determinar el alcance adecuado del proyecto: ¿que se espera de este diseño de refuerzo sonoro por parte del solicitante?, ¿existe alguna obstrucción visual posible?, ¿existe limitación en cuanto a peso del equipo?, ¿es un espacio abierto o cerrado? a nivel subjetivo ¿que se busca o que se espera?, ¿qué tipo de sistema se solicita: arreglo lineal o sistema convencional?, todo esto encaminado a determinar el alcance adecuado del proyecto.

 

4) Análisis de cobertura.  Se aplicarán y comprobarán diferentes técnicas de diseño apoyándonos de un software de predicción, tal como MAPPXT el cual se utiliza para medir y cuantificar parámetros. En este punto debemos ser capaces de resolver problemas de interacción entre altavoces, selección de nivel de presión sonora adecuado, análisis de la respuesta en frecuencia y fase en diferentes puntos del recinto, cobertura vertical, horizontal, ubicación de altavoces, ángulo de inclinación y peso de altavoces, distribución de señales para un adecuado ajuste del sistema buscando así una cobertura homogénea en todos los escuchas por igual. Asimismo, debemos aplicar parámetros de referencia o normas existentes según el tipo de aplicación; por ejemplo: en cines con formato de reproducción ATMOS existen normativas por parte de Dolby que ofrecen especificaciones a cumplir referentes a nivel de presión sonora, altavoces en pantalla, posición de altavoces, niveles de presión sonora en la zona de baja frecuencia, entre otros. En recintos deportivos existen normativas que ofrece la FIFA como guía para realizar un diseño. De igual forma, se deberá realizar el análisis de qué tipo de sistemas serán necesarios con base a las necesidades de cobertura de los altavoces: sistema principal, sistema frontal, sistema bajo balcón, sistema de retraso, sistema lateral, sistema de baja frecuencia, sistema multicanal 5.1, 7.1, por mencionar algunos. Al finalizar dicho análisis se genera una memoria de diseño del mismo.

 

5) Supervisión de montaje.  Una vez que se terminó la etapa anterior, lo más importante que se debe considerar y no debemos olvidar es que ese diseño se llevará a cabo en la práctica, por lo que debemos asegurarnos que el diseño se lleve a cabo tal como se planteó. En ese momento debemos contar con las herramientas adecuadas para poder supervisar dicho montaje, tal como inclinómetro, láser, cintas métricas y memoria de montaje.


Gabriella Galán Mendicuti estudió audio estudios como ingeniera de telecomunicaciones con especialización en audio y video en la Universidad Politécnica de Madrid. Ella ha estado involucrada en audio profesional durante los últimos 12 años con un énfasis especial en el diseño de refuerzo de sonido. Actualmente trabaja en Meyer Sound México como Especialista en Servicios de Diseño para México y América Latina. Ha participado en varios diseños de refuerzo de sonido de los lugares más importantes en varios países, como teatros, iglesias, espectáculos en vivo, eventos especiales y lugares.

 

 

Considerations for a Sound Reinforcement Design.

What is the sound reinforcement design? Reproduction of the sound in a certain audience area by artificial means, which have the purpose of amplifying the sound to obtain a homogeneous sound pressure level (the differences of + -6dB are considered acceptable) in all the points of the room to sound, in addition to ensuring the intelligibility of the message to each of the listeners.

We will outline some considerations to take into account for the sound reinforcement design

 

 

ACOUSTIC PARAMETER RECOMMENDED VALUE
Average reverberation time (500 Hz – 1 kHz), full room

Average reverberation time (500 Hz – 1 kHz), full room

0,7 ≤ RTmid ≤ 1,2 s

0,7 ≤ RTmid ≤ 1,2 s

Clarity of the voice C50 (“speech average), full room C50 > 2 dB
Definition D (from 125 Hz to 4 kHz), occupied room D > 0,50

D > 0,50

Relationship first reflections ERR, empty or occupied room 2 ≤ ERR ≤ 6
STI / RASTI, occupied room STI/RASTI ≥ 0,65

 

ENCLOSURE DESING REVERBERATION   (s)
Cinema 0.4 s

.4 s

Classroom 0.6 s
Theater and Music  autoamplified 1.0 s
Symphonic 2.2 s
Churches 3.0 s

 

 

 

 

 

 

3) Request for drawings of the design to be designed. At this point it is recommended to have measurements of the place by means of a scouting to the enclosure; Plans must be requested in AutoCAD, both in 3D, 2D, plant, and court views, in order to carry out a thorough analysis. Likewise, we must remember that this design will be carried out in practice, so we must not forget to ask ourselves different questions that allow us to determine the adequate scope of the project: what is expected from this sound reinforcement design by the applicant? Is there any possible visual obstruction? Is there a limitation regarding the weight of the equipment? Is it an open or closed space? At a subjective level, what is being sought or what is expected? What kind of system is requested: the linear arrangement or conventional system? All this aimed at determining the adequate scope of the project.

4) Coverage analysis. Different design techniques will be applied and tested, supported by a prediction software, such as MAPPXT, which is used to measure and quantify parameters. At this point we must be able to solve problems of interaction between speakers, selection of adequate sound pressure level, analysis of frequency response and phase at different points of the enclosure, vertical, horizontal coverage, location of speakers, angle of inclination and weight of loudspeakers, distribution of signals for an adequate adjustment of the system looking for a homogenous coverage in all listeners alike. Likewise, we must apply reference parameters or existing standards according to the type of application; for example: in cinemas with ATMOS playback format there are regulations by Dolby that offer specifications to be met regarding sound pressure level, on-screen speakers, speaker position, sound pressure levels in the low-frequency area, among others. In sports venues, there are regulations that FIFA offers as a guide to design. Likewise, the analysis of what kind of systems will be needed based on the speaker coverage needs must be carried out: main system, front system, balcony system, delay system, lateral system, low-frequency system, system multi-channel 5.1, 7.1, to mention a few. At the end of this analysis, a design memory is generated.

 

5) Assembly supervision. Once the previous stage is finished, the most important thing that should be considered and we must not forget is that this design will be carried out in practice, so we must ensure that the design is carried out as it was proposed. At that time we must have the right tools to monitor such assemblies, such as inclinometer, laser, tape measures and mounting memory.


Gabriella Galán Mendicuti studied audio studies as a telecommunications engineer with a specialization in audio and video at the Polytechnic University of Madrid. She has been involved in professional audio for last 12 years with a special emphasis on sound reinforcement design. She currently works at Meyer Sound Mexico as a Design Services Specialist Tech Support for Mexico and Latin America. She has participated in various sound reinforcement designs of the most important venues in various countries, such as theaters, churches, live shows, special events, and venues.

 

Tips to Improve Workflow When Mixing FOH

In my opinion, the dream of every sound engineer is to achieve a high impact mix that provides the audience a great concert experience. Therefore we must take into account a series of considerations.

Having a good position for FOH, so you have a real reference of the system, it is important to remember that there is more than one point where the audience is listening.

Make sure you a system that has proper coverage and is aligned and optimized. We must be aware that our mix will reach every listening point and having proper optimization will help us avoid cancellations that hurt audio quality.

Having a solid understanding of the input gain (gain structure). Understanding how our tools work technically (consoles, processors, among others) we help us achieve a dynamic mix with plenty of headroom.

Solving these issues beforehand will allow us to focus on mixing the show. However we do not always have the best work tools, but by keeping the bases clear, we can solve technical difficulties as they arise.

These are some of the techniques that have worked for me when mixing Sala.

Attend the rehearsals- it is essential to be in contact with the musicians and the project in general, you should pay to the performance of the musicians, knowing the musical repertoire and the feeling and dynamics expressed by each song.  We have an obligation to learn what our artist or musical group wants to reflect to the public

Recording multitrack sessions is something that has worked for me, and I highly recommend it. With the session files, you will have the ability to practice and study, learning where solos take place and you can learn the dynamics of vocals and instruments. The more you learn the music the more ideas  you will get in order to achieve a high impact mix. You will also be able to set up your workflow (you can set up files for different digital consoles using their offline editors) and speed up your workflow during soundcheck and the show.

Experiment with different microphone techniques – There is a wide variety of microphones to choose from, take into account the following characteristics: sensitivity, polar pattern and frequency response. You can select microphones that best suits the artists and their sound. You do not always have the time to experiment during a soundcheck, so make sure you determine the best microphone positions beforehand.

The stage plot and input list- is a must for the engineers. Having an accurate and current input list and stage plot is a must.

How to Make a Stage Plot and Input List.

List of Software and Apps to make a stage plot

We do not always have the possibility of finding the desired team, but by studying hard, training, and practicing, we can solve every obstacle.


By Samantha Martínez Luviano

Originally from Mexico City, she began her audio and production studies in 2013 at G. Martel University.  She took part in a series of courses that opened the doors to the music industry, such as Mixtlán, Meyer sound, Shure learning center, liveS, among many more skills that contributed to her job growth, she is currently studying engineering in mechatronics. Samantha is now an independent sound engineer.

Consejos para mejorar el flujo de trabajo al mezclar FOH

En mi opinión, el sueño de todo operador de sonido, es obtener una mezcla de alto impacto que satisfaga a nuestros oídos y así hacer disfrutar a nuestra audiencia ofreciendo un buen concierto, por ello hay que tomar una serie de consideraciones, tales como:

Contar con una buena posición de nuestro FOH para tener una referencia real del sistema, es importante recordar que hay más de un punto en donde la audiencia esta escuchando, por eso el siguiente paso es:

Tener un buen sistema de audio alineado y optimizado, al tener un sistema con una buena cobertura, estaremos consientes de que nuestra mezcla llegará a todos y cada uno de los puntos de escucha y teniendo una buena optimización nos ayudara a evitar cancelaciones que empobrecen nuestra mezcla.

Tener un buen control de la ganancia de entrada (Estructura de ganancia), al conocer como funcionan técnicamente nuestros instrumentos de trabajo (consolas, procesadores, entre otros) podremos tener una dinámica y mayor headroom llegando al objetivo de transmitir la música de nuestro artista al público.

Todos estos conocimiento nos ayudarán a resolver desde antes algunas situaciones que nos harán distraernos y así, podremos enfocarnos mas fácilmente a mezclar un show con nuestro artista; Sin embargo cuando vamos empezando no siempre nos encontraremos con las herramientas optimas de trabajo, pero teniendo claras las bases, podremos resolver cualquier dificultad; es por esta razón que les comparto algunas de las técnicas que me han funcionado a la hora de mezclar un show en Sala.

Antes que nada, hay que tener bien estudiado y entendido el uso y tipos de procesadores tales como el de tiempo (reverberaciones, delays), dinámica (compresores, compuertas); filtros (shelving, HPF, LPF), ecualizadores (paramétricos, semi-paramétricos).

El buen control de ganancia de entrada es de suma importancia así como entender perfectamente el concepto de fase, teniendo claro estos aspectos, obtendremos una mezcla sólida y balanceada.

Cuando tenemos la oportunidad de empezar a laborar con una banda, siempre es emocionante pero aun siendo un maestro del buen uso de los procesos debemos tener la obligación de aprender el concepto y genero de lo que nuestro artista o grupo musical quiere reflejar al público.

Este es el flujo de trabajo que me ha funcionado para poder enriquecer mi trabajo.

Asistir a los ensayos- es muy importante estar en contacto con los músicos y el proyecto en general, ya que deberás prestar atención a puntos como: la ejecución que tienen los músicos, conocer el repertorio musical y con ello el sentimiento y dinámica que expresa cada canción.

Grabar los ensayos en multitrack– es algo que me a me a funcionado de una forma maravillosa por lo cual lo recomiendo ampliamente, ya que con este material y desde cualquier DAW (software) tendrás la posibilidad de practicar y estudiar, como por ejemplo: saber cuando enfatizar un “solo”, además al escuchar con atención la grabación te darás cuenta de la dinámica de la voz e instrumentos que ejecutan los músicos, con esto tendrás una idea mas clara del uso que puedes darle a los procesadores de dinámica, mientras más estudies los detalles de la grabación veras que saldrán múltiples ideas de lo que puedes hacer para lograr una mezcla de alto impacto, además de que de verdad agiliza tu trabajo a la hora de hacer el show.

Experimentar técnicas de microfoneo– tener conocimiento de la gran variedad de micrófonos que existen en el mercado, tomando en cuenta las siguientes características: sensibilidad, patrón polar y la respuesta en frecuencia; con esto podrás seleccionar lo que mejor que  te convenga para tener un mejor sonido. No siempre se tiene el tiempo para verificar una y mil cosas dentro de un show pero uno de las principales tareas de un ingeniero de sala, es posicionar la microfonía con el fin de facilitar aún mas el trabajo de tu mezcla. Intentarlo!

El stage plot e input list-  es una gran ayuda para los ingenieros a cargo de sus respectivas áreas así como el realizar junto con la persona encargada de monitores el input list.

A continuación comparto el input y stage plot del artista con quien trabajo.

Como dije al principio no siempre tenemos la posibilidad de encontrar con el quipo deseado pero estudiando duro, capacitándote y practicando podremos resolver todo obstáculo.

How to Make Stage Plots and Input Lists

Software and Apps for Designing Stage Plots


Samantha Martínez Luviano

Originaria de la ciudad de México, comenzó sus estudios de audio y producción en el año 2013 en la universidad G. Martel y en seguida tomó una serie de cursos que le abrieron las puertas al medio de la industria de la música, como Mixtlán , Meyer sound  , Shure learnig  center, liveS, entre muchas más capacitaciones que aportaron mucho a su crecimiento laboral, actualmente se encuentra estudiando ingeniera en mecatrónica.

Su primer acercamiento laboral dentro del audio fue en el año 2016 al formar parte del staff del festival  “El rock nos une” como técnico en microfonía, y ha tenido la oportunidad de  operar en teatro, festivales, eventos corporativos y asistido a ingenieros de alineación de sistemas, por otro lado, ha realizado grabaciones y mezclas en estudios.

Actualmente trabaja de forma independiente en empresas de renta de sonido y trabajando de planta para dos bandas haciendo mezcla de sala.

 

DISEÑO SONORO – Foley

 

Los efectos de sonido en la filmación comenzaron cuando las películas dejaron de ser mudas para pasar a transmitir sonidos y voces. En 1927, Jack Foley desarrolló múltiples y diferentes técnicas de sonidos para cine, gracias a su colaboración en la película “ShowBoat”, en donde realizó los efectos de sonido sincrónico en tiempo real y así comenzó el efecto sala, mejor conocido como efecto Foley.

El sonido tiene la capacidad de hacernos sentir parte de una historia; algunas veces pasa desapercibido, pero si no estuviera ahí, la película no generaría el mismo sentimiento.

El foley puede comprender desde el sonido más sutil y cotidiano, hasta efectos sonoros creados para dar más sentido a algo en concreto, por ejemplo:  la ropa, puertas crujiendo, vidrios rotos y el mar, entre otros.

Al inicio, puede ser confuso comenzar a recrear los efectos sonoros. ¿Qué sonido es el mejor? ¿qué pasa si no me gusta el Foley que estoy creando?

Con esto en mente, hay que centrarse en tres áreas principales: pasos, movimiento y accesorios específicos. A continuación, se muestran distintos escenarios de lo que podría suceder, así como algunas recomendaciones de lo que puedes hacer al respecto:

Experimentar hace al maestro: Crea tus propios sonidos, prueba varios materiales, fábricas, suelos, etcétera. Esto te ayudará a tener una idea de un sonido y decidir qué es lo que requieres, en la medida que te funcione. Muchas veces, el producto final termina siendo algo que no esperabas, también te ayudará a crear un flujo de trabajo y en proyectos futuros podrás tener tus técnicas de grabación listas.

Prepárate para ensuciarte: Sí, ser un artista de Foley es un trabajo sucio, es recomendable utilizar ropa que no te moleste manchar, ya que estarás en el estudio durante varias horas y además te proporcionará comodidad para poder realizarlos. Trata también de usar ropa que haga poco ruido, para evitar que se filtre algún sonido externo.

Crea plantillas: El orden en las sesiones optimizará tu tiempo; crea plantillas en tu software de grabación (DAW) con tiempo. Independientemente de cuál utilices, el trabajo será más rápido y esto también les hará más sencilla su labor a los ingenieros de edición, de mezcla , etcétera.

Tener un diario se convertirá en tu mejor amigo: En él deberás registrar cada movimiento que estás haciendo, con su fecha y hora respectiva, desde lo más sencillo, como: “Tuve un error de grabación” o “No logré el paso adecuado”, hasta lo más complejo: “Hoy aprendí una técnica de grabación”. Puede ser tedioso, pero a largo plazo será de gran ayuda si llegaste a olvidar a crear un sonido, o también, cuando realices proyectos similares, tendrás una idea de cómo trabajarlos, gracias a tu journal.

Ir al cine: Ya sea para referencia o inspiración, esto te abrirá la mente, no sólo para ver efectos especiales, escuchar pasos en diferentes tipo de relieve y demás; también podrás ver cómo los géneros en el cine varían en Foley, en su manera de ser creados, grabados y mezclados.

Habrá cambios de último momento: Es la ley de la vida y más en la producción de películas. Ten en cuenta que puede haber proyectos que te pidan entregar al día siguiente (yo he tenido que entregar desde una hora o hasta media hora antes de la proyección), por lo que tendrás que trabajar bajo presión, pero no te preocupes, no siempre será así y aprenderás mucho.

Guarda todo: La regla de oro. Graba todo y si no estás segura de que lo hiciste, vuelve a guardar.

Colocación de micrófonos

Los micrófonos sensibles son excelentes para captar matices sutiles en efectos de sonido. Dentro del estudio de Foleys, puedes utilizar los siguientes modelos de transductores:

Trata de que la dirección del micrófono no esté muy cerca de la fuente que quieras captar; aléjalo unos cuantos centímetros para tener un poco del sonido del cuarto.

Estos son algunos objetos y técnicas sugeridas por artistas de Foley en Hollywood:

TÉCNICAS

OBJETOS

Cada película es distinta; además, cada producción y dirección provocan procesos diferentes, por lo que siempre aprenderás cosas nuevas. Así que al final, en todo momento sigue intentando nuevas ideas y guárdalas, nunca sabes cuándo las podrías usar.


By Tania Moreno and Carolina Anton

Tania Moreno – Nació en Ciudad Obregón, Sonora, el 2 de abril de 1996. Estudió la preparatoria en el Instituto Tecnológico de Monterrey en Monterrey, México, y actualmente es estudiante de Ingeniería de audio en el Instituto Tecnológico de Monterrey en Monterrey, México.

Ha estudiado una segunda carrera en Francés y también ha estudiado y realizado prácticas en Helsinki, Finlandia.

Es locutora y artista de Foleys para proyectos de animación y actualmente acaba de fundar su productora de audio Happy Dog Productions, especialista en la creación de diseño sonoro, scoring, mezcla y masterización.

Carolina C. Antón – Originaria de la Ciudad de Mexico, con más de 9 años de constante crecimiento, amante de la música, su primer acercamiento fue tocar la batería, inmediatamente inició de manera autodidacta e independiente, comenzando a realizar grabaciones en vivo, diseños y optimización de refuerzo sonoro y Head de audio para festivales internacionales a nivel internacional. Actualmente es ingeniero de mezcla para en vivo (FOH / MON). Ha mezclado para varios artistas, participando en giras mundiales.

Desde el 2016 comenzó su representación de Soundgirls.Org en la Ciudad de Mexico

Agradecimientos a la comunidad de Artistas de Foley: Peggy Vázquez, Estefanía Monroy (BHD estudios) y Alexa Castillo (BHD estudios) por aportaciones de consejos.

 

 

X