Neurociencia | Neuroscience


Navegue por el glosario usando este índice.

Especial | A | B | C | D | E | F | G | H | I | J | K | L | M | N | Ñ | O | P | Q | R | S | T | U | V | W | X | Y | Z | TODAS

Página:  1  2  3  4  (Siguiente)


Logo KW

DARPA Wants to Jolt the Nervous System with Electricity, Lasers, Sound Waves, and Magnets [1509]

de System Administrator - lunes, 12 de octubre de 2015, 20:19


DARPA Wants to Jolt the Nervous System with Electricity, Lasers, Sound Waves, and Magnets

By Eliza Strickland

Viewing the body as a chemical system and treating maladies with pharmaceuticals is so 20th century. In 21st century medicine, doctors may consider the body as an electrical system instead, and prescribe therapies that alter the electrical pulses that run through the nerves.  

That’s the premise of DARPA’s newest biomedical program, anyway. The ElectRx program aims to treat disease by modulating the activity of the peripheral nerves that carry commands to all the organs and muscles of the human body, and also convey sensory information back to the brain. 

Yesterday, DARPA announced the first seven grants under the ElectRx program. The scientists chosen are doing fairly fundamental research, because we’re still in the early days of electric medicine; they’ll investigate mechanisms by which to stimulate the nerves, and map nerve pathways that respond to that stimulation. They’re working on treatments for disorders such as chronic pain, post-traumatic stress, and inflammatory bowel disease. 

The proposed stimulation methods are fascinating in their diversity. Researchers will not only stimulate nerves with jolts of electricity, they’ll also use pulses of light, sound waves, and magnetic fields. 

Three research teams using electrical stimulation will target the vagus nerve, which affects many different parts of the body. IEEE Spectrum explored the medical potential of vagus nerve hacking in a recent feature article, writing:   

Look at an anatomy chart and the importance of the vagus nerve jumps out at you. Vagus means “wandering” in Latin, and true to its name, the nerve meanders around the chest and abdomen, connecting most of the key organs—heart and lungs included—to the brain stem. It’s like a back door built into the human physiology, allowing you to hack the body’s systems.

The light-based stimulation research comes from the startup Circuit Therapeutics. The company was cofounded by Stanford’s Karl Deisseroth, one of the inventors of optogenetics, the new technique that inserts light-sensitive proteins into neurons and then uses pulses of light to turn those neurons “on” and “off.” Under the DARPA grant, the researchers will try to use pulses of light to alter neural circuits involved in neuropathic pain. 

To tweak the nervous system with sound waves, Columbia University’s Elisa Konofagou will use a somewhat mysterious ultrasound technique. In an e-mail, Konofagou explains that it’s already known that ultrasound can be used to stimulate neurons, but with the DARPA grant, she hopes to figure out how it works. Her hypothesis: As ultrasound propogates through biological tissue, it exerts mechanical pressure on that tissue, which stimulates specific mechanosensitive channels in neurons and causes them to “turn on.” 

The final project will rely on magnetic fields to activate neurons, using a technique that could be called “magnetogenetics.” An MIT team led by Polina Anikeeva will insert heat-sensitive proteins into neurons, and will then deploy magnetic nanoparticles that bind to the surface of those neurons. When exposed to a magnetic field, these nanoparticles heat up and activate the neurons to which they’re attached.  

Figuring out how to alter the activity of the nervous systems with these various tricks will be a pretty impressive accomplishment. But in the DARPA world, achieving that understanding is just step one. Next, the agency wants its grantees to develop “closed-loop” systems capable of detecting biomarkers that signal the onset of disease, and then respond automatically with neural stimulation. Spectrum covered the first such closed-loop neural stimulators in a recent feature article, stating: 

The goal of all these closed-loop systems is to let doctors take their expert knowledge—their ability to evaluate a patient’s condition and adjust therapy accordingly—and embed it in an implanted device.

Learn More:


Logo KW

Daytime Sleep Alters Human Transcriptome [1134]

de System Administrator - lunes, 9 de marzo de 2015, 15:32

Daytime Sleep Alters Human Transcriptome

A mistimed sleep cycle drastically reduces the number of genes that are expressed in a 24-hour rhythm.

By Jef Akst

Human volunteers following a 28-hour sleep-wake cycle expressed far fewer genes in a typical circadian cycle, according to a study published today (January 20) in PNAS. And among the genes that showed aberrant expression cycles were those involved in transcription and translation, pointing to mistimed sleep as a major contributor to the physiological effects of shiftwork and jet lag.

“I think that’s quite new and intriguing,” said neurobehavioral geneticist Valter Tucci at the Italian Institute of Technology in Genova, who was not involved in the study. “The shifting the time of sleep has enormous consequences. Just by looking at the genes, we see most profound disruption.”

In the 1930s and ’40s, circadian research pioneer Nathaniel Kleitman found that, when he forced himself to follow a sleep-wake cycle of 28 hours, his body temperature would not fluctuate as much as it did on a normal, 24-hour cycle. Other physiological rhythms also “have a reduced amplitude in general when you’re not sleeping at the right time of day,” said Derk-Jan Dijk, a sleep physiologist at the University of Surrey, who noted that such disturbed rhythms are believed to underlie many of the problems experienced by shift workers or during jet lag. “So our question was, What actually happens to the transcriptome?”

Dijk and his colleagues invited 22 volunteers into their clinical research center for three days, where the participants’ sleeping periods were delayed by four hours each day, until they were sleeping during the daytime. Drawing blood samples at regular intervals and analyzing the transcripts using microarrays, the researchers found that “there was a massive impact on the regulation on the timing of the expression of those transcripts,” said coauthor Simon Archer, a molecular biologist and sleep geneticist at Surrey.

At the beginning of the experiment, nearly 6.5 percent of the participants’ transcripts followed a 24-hour rhythm, consistent with other estimates of circadian gene expression in the literature. But at the end of three 28-hour days, only 1 percent of their genes showed such cyclical expression. “That’s quite a reduction,” Dijk said. “That basically illustrates that the phenomenon of reduced amplitude [of physiological rhythms] when your sleep is mistimed extends to the molecular level.”

The loss of rhythmicity could be attributed to a couple of factors, including an overall reduction in the amplitude of gene expression cycling as well as shifts in the timing of expression, said Archer. “Some shifted, but in a way that meant that they were no longer circadian; some became bimodal.” Both genes that are normally expressed during the day and genes that typically peak at night were disrupted.

Importantly, the body’s master clock—the suprachiasmatic nucleus (SCN) of the hypothalamus—continued to keep time correctly, as evidenced by the consistent 24-hour cycle of melatonin levels in the participants’ blood. “So what we’re starting to see is that some aspects of rhythmicity in some parts of the brain are still intact, but in other parts of the body the rhythmicity is disrupted,” Dijk said. He and others believe that it is this desynchrony among the body’s clocks that may be the root cause of many physiological problems accompanying shiftwork and jet lag.

Looking more closely at which genes had lost their rhythmic expression, Dijk and his colleagues found that many are known regulators of gene expression. Genes involved in transcription, such as RNA polymerase II, and genes involved in translation, like ribosomal proteins and initiation and elongation factors, had lost their 24-hour cycles. Even some core clock genes, including CLOCK and BMAL1, were disrupted. Finally, genes involved in chromatin modification, such as methylases and acetylases, also exhibited decreased rhythmicity.

“There’s a lot of discussion recently about not only the genetics aspect of sleep, but the epigenetic aspect of sleep,” said Tucci, who today published some of his own research on sleep-dependent gene expression in mice, in Philosophical Transactions of the Royal Society B. “I think [sleep homeostasis research] is going in that direction.”

How mistimed sleep elicits such changes in gene expression remains unclear, said Dijk. Moreover, he wonders whether the experimental design—delaying sleep by four hours each day—could have an impact. “We don’t know how it would look like if you would acutely shift sleep,” for example, by 12 hours all at once, he said.

But one thing is clear: forcibly altered sleep patterns have major effects on gene expression. “It’s not by chance that evolution has favored the development of sleep at a particular time,” Tucci said. “Be careful going against what evolution has given us, we might screw up other systems.”

S.N. Archer et al. “Mistimed sleep disrupts circadian regulation of the human transcriptome,”PNAS, doi/10.1073/pnas.1316335111, 2014.

Logo KW

Death: The Ultimate Motivator [704]

de System Administrator - miércoles, 6 de agosto de 2014, 17:54

Death: The Ultimate Motivator

by Manfred Kets de Vries, INSEAD Distinguished Professor of Leadership Development & Organisational Change

Embracing the inevitability of death can help executives build meaning into their work and leave the legacies they desire.

Do not fear death so much, but rather the inadequate life - Bertolt Brecht

Death is the destination we all share, no-one has ever escaped it - Steve Jobs

Death, it’s a fear rarely discussed in the boardroom or around the watercooler. It doesn’t feature in mainstream motivational theories or textbooks on organisational behaviour and motivation. But its alarming reality is ever-present and affects every aspect of our life and action, including the world of work.

Death is the ultimate stealth motivator.

Today most people ‘outsource’ death. They try to sterilise it. In their late 20s and early 30s people work frenetically to get ahead, not realising that life is finite. After 40 people start to become more aware of the time left to live as those close to them start to get sick and die. Eventually a great part of what people do is intricately tied to death. Yet still the subject of death remains taboo.

While some react to the fear of death by refusing to get out of bed and pulling the blanket over their head, the more general response is quite the opposite. In many cases people push all thoughts of death into the back recesses of the mind while continuing to run their lives and business at a frantic pace. Whether people harness this activity in a positive way or runaround like a rat in a maze is an indication of how well they address fears of their inevitable end.

Death Anxiety

Intellectually there is no denying death awaits us all. However, as I examine in Death and the Executive: Encounters with the Stealth Motivator, truly acknowledging it is quite a different thing. By repressing fears of death, people can develop a conscious or unconscious death anxiety. Death anxiety underlies much executive behaviour and action and as this anxiety intensifies, there are three common maladaptive responses:

The manic defence

‘Workaholism’ is a dysfunctional way of transforming death anxiety. For some executives, work becomes their immortality system. Typically workaholics use incessant activity as a way to avoid depressive thoughts and push away lingering subconscious fears of death. Unfortunately in contemporary organisations, work addicts are highly encouraged, supported and compensated for their unhealthy behaviour patterns. But a workaholic environment can contribute to serious organisational problems ranging from low morale, depression, substance abuse, workplace harassment and above-average absenteeism. An executive in one of my programmes driven by anxiety went on an acquisition spree that he was unable to stop. It was one way of helping him feel alive but ultimately affected his company’s economic viability.

A refusal to deal with succession issues

 Thinking and talking about succession can be taboo amongst senior executives. They determinedly resist dealing with the big question of ‘life after me’ because it is too anxiety provoking. Meanwhile the organisation suffers and stagnates and productivity stalls because of the leader’s failure to let go.

The edifice complex

Some leaders attempt to avoid mortality by creating a tangible legacy – an organisation, building, award etc in their name. Innumerable examples of this include the pharaohs’ pyramids, the Taj Mahal and Ceausescu’s Palace of the Parliament in Bucharest. There is a psychological parallel between making a mark on the landscape with a building and an exercise of power. Creating a business that will be continued by family members is another obvious way of ensuring some form of immortality. This conscious or subconscious wish lies at the core of many family business dynasties, formed by the illusion that people are not really dead while their names are still spoken.

Building meaning

But keeping busy and building a legacy, don’t have to be dysfunctional. By ensuring there is meaning to their work, executives can give life significance, and ultimately ease the death-fear neurosis.

Being able to work at something that has meaning is a very important part of life and death. By creating meaning for themselves and others in the workplace, executives can alleviate feelings of uselessness that both feeds off and heightens death anxiety. All of us like to know what we can do to make the world a better place for the next generation.

Building meaning could be another way of leaving a legacy which doesn’t involve building structures. This could be rebuilding relationships with children – the most important legacy– or creating a programme or foundation which continues to help people after the initiator is gone.

Arriving at closure

Humans are said to be unique in that we adapt and run our lives in full knowledge not only of beginnings but also of endings. But our anxiety about death causes a great degree of conscious or unconscious discomfort that manifests itself in a wide variety of affective, cognitive, developmental and sociocultural reactions. How we metabolise our anxiety about death determines whether we experience work as meaningful or meaningless. Unresolved death anxiety can result in heightened stress and even psychological burnout.

Death anxiety is something executive coaches should be aware of and something they and senior executives can address by getting people to confront and talk about their fear and by creating an environment where people feel their work has lasting relevance and significance. Ultimately many executives are more afraid of a meaningless existence than death itself.

Manfred Kets de Vries is a Distinguished Professor of Leadership Development and Organisational Change at INSEAD. He is also the Founding-Director of INSEAD’s Global Leadership Centre, programme director of INSEAD's top management programme, The Challenge of Leadership: Developing Your Emotional Intelligence, and Scientific Director of the Executive Master’s Programme Consulting and Coaching for Change

Follow INSEAD Knowledge on Twitter and Facebook


Logo KW

Decisiones [680]

de System Administrator - martes, 5 de agosto de 2014, 00:43

Video: "Así Decide el Cerebro"

Logo KW

Decoding the Building Blocks of Neuronal Diversity [1098]

de System Administrator - lunes, 16 de febrero de 2015, 00:42

Decoding the Building Blocks of Neuronal Diversity

by Odessa Yabut PhD

In his iconic book, Cosmos, Carl Sagan wrote that the cerebral cortex is where “matter is transformed into consciousness.” This profound function requires approximately 16 billion neurons that are classified according to their morphology, molecular properties, and connectivity. Interestingly at birth, the majority of neurons in the neocortex, including the highly diverse pyramidal neurons, have been generated. These neurons already possess the instructions that will shape and maintain their individual identity in the mature neocortex.

To resolve the molecular instructions driving pyramidal neuron specification, Molyneaux et al. used antibody-based purification methods to isolate pure populations of subcerebral pyramidal neurons (SCPN), callosal pyramidal neurons (CPNs), and corticothalamic pyramidal neurons (CthPNs) at different stages of embryonic corticogenesis in the mouse. These purified neuronal subtypes were then subjected to whole-transcriptome analyses by high-throughput RNA-sequencing to delineate the transcriptional dynamics that influence and refine neuronal identity during development.

A host of differentially expressed genes, mRNA isoforms, and long noncoding RNAs (lncRNAs) were identified and grouped into gene clusters according to the levels and timing of expression in each neuronal subtype. Among these, Molyneaux and colleagues found that expression of cell surface molecules, even those that are within the same class (i.e. G-protein coupled receptors or metabotropic glutamate receptors), differ between subtypes and are strong indicators of neuronal identity. Furthermore, each neuronal subtype may utilize distinct transcriptional mechanisms (such as the use of multiple promoters and transcriptional start sites) to produce alternative mRNA isoforms of the same gene. For example, expression of one isoform of Lrrtm4, a gene associated with synaptic development, increased in SCPNs while it decreased in CThPNs over the course of corticogenesis.

To date, only a handful of regulatory networks are known to shape neuronal identity, most of which were deduced from studies on the epistatic relationship between pairs of genes. The large-scale approach employed by Molyneaux et al. demonstrates that lineage commitment is a far more complex and multifaceted process, particularly at the transcriptional level. To facilitate further dissection of these findings, the authors developed an interactive database, DeCon. This resource enables investigators to query, visualize, and manipulate the results from these studies. This will also serve as a repository for future transcriptomic data obtained from specific neuronal populations. With this resource and further characterization of each molecular player, a comprehensive understanding of the mechanisms that engineer neuronal diversity in the neocortex will be achieved.





Logo KW

Decon Recon [1519]

de System Administrator - miércoles, 14 de octubre de 2015, 13:35

Decon Recon

By Sarah C.P. Williams 

Published genomes are chock-full of contamination. But as awareness of the problem grows, so do methods to help combat it.


When Supratim Mukherjee noticed the same bacteriophage sequence popping up again and again in hundreds of microbial genomes from a database he was analyzing, he got excited. Mukherjee, a bioinformatician at Lawrence Berkeley National Laboratory, was comparing the metabolic pathways of the microbes, and he began to wonder what the nearly ubiquitous sequence was. “I thought we must have discovered something novel,” he recalls. “This entire bacteriophage genome was intact in all these diverse microbes.”

But when Mukherjee looked up the bacteriophage sequence, he learned that it was the sequence of PhiX, a bacteriophage sold by Illumina as part of the company’s sequencing kits to run alongside a genome of interest. Ironically, PhiX is intended as a quality-control measure, to track error rates on any given sequencing run. But in many hundreds of cases, Mukherjee found, researchers had failed to remove the PhiX sequences from their published genomes.

Mukherjee’s experience isn’t an isolated one. A recent slew of reports has shown that the contamination of published genomes is more widespread than ever. (See “The Great Big Clean-Up,” The Scientist, September 2015.) How does this happen? And what can you do to ensure that your sequences don’t become part of the problem?

The Scientist asked a handful of researchers to share their experiences with contamination and their best tips to detect or prevent these rogue sequences. Here’s what they said. Widespread genome contamination When Mukherjee’s team realized that PhiX contamination was rife in published microbial genomes, the group decided to quantify just how often this happened. Among the 18,000 bacterial and archaeal genomes published in the public Integrated Microbial Genomes database, more than 1,000 are contaminated with PhiX sequences, the researchers reported earlier this year (Standards in Genomic Sciences, 10:18, 2015). Around 10 percent of the contaminated sequences had also been published in peer-reviewed publications.

PhiX contamination is just the tip of the iceberg—and the problem is growing exponentially, says David Lipman, director of the National Center for Biotechnology Information (NCBI), which has been screening sequences submitted to its GenBank database for the past five years. “In 2012, we were detecting contamination in 2 to 3 percent of bacteria and archaea submissions,” Lipman says. “But then it started climbing steadily, and by 2014 it was close to 10 percent. This year, so far, it’s on the order of 23 percent.” The rise, Lipman hypothesizes, is tied to the increase in the number of labs—including many that don’t specialize in genomics—that are now sequencing genomes.

Microbial sequences aren’t the only ones riddled with contamination. Last year, computer scientist William Langdon of University College London discovered that at least 7 percent of the human genomes included in the 1000 Genomes Project were contaminated with mycoplasma genetic material (BioData Mining, 7:3, 2014). (See “Out, Damned Mycoplasma,” The Scientist, December 2013.) So it’s safe to say that if you’re struggling with a contaminated genome, you’re not alone.


Sources of contamination

There are a few ways that contamination happens, says bioinformatician Rob Edwards of San Diego State University. “The first is that someone in the lab can confuse two samples and accidentally mislabel a specimen or a file,” he says. “That’s something you can easily mitigate by having a good lab management system and improving your record keeping.” (See “Lab 2.0,” The Scientist, December 2012.)

Alternatively, contamination can stem from extraneous genetic material that’s been introduced into a sample. Or, if you’re culturing bacteria you collected from the environment, Edwards says, it’s not uncommon for multiple species to appear in a sequencing run, even if you think you only streaked a single culture. Likewise, if you’re sequencing microbes from the human gut, your sample will naturally have human cells. Even the genes in a mitochondrion or chloroplast could be considered contamination if you only want an organism’s nuclear genes. These contaminants can’t be completely avoided, but there are measures that can be taken both to clean up your sample before you start sequencing and to purge your sequencing results of any residual contamination.

Edwards, whose team focuses on metagenome sequencing from environmental samples, says his group often uses size filtering to separate organisms upon starting with an especially mixed bag of viruses and bacteria, as in a test tube of seawater. Or, if the researchers suspect contamination with human DNA, they hybridize their gene samples with human genetic material to remove it, leaving only the microbes.

Similar clean-up approaches can be used when you’re dealing with contamination that comes with the protocols you use, such as sequences from PhiX controls, from primers and adapters added to samples to amplify and sequence genes of interest, and from cloning vectors—the genetic vehicles that allow foreign DNA to be copied by host cells.

Yet another source of contamination is dirty machines that bleed through between experiments, letting genes from the prior sequencing run appear in the next one. Just being aware that this kind of contamination might exist in your experiments can help you choose methods to remove it after sequencing, Edwards says. Or, if it shows up repeatedly, you can try changing protocols or troubleshooting your machine.

Detective work


There’s no question that getting rid of contaminants as early as possible in your process is ideal—for all sorts of reasons. “Contaminants are bad because they increase the direct costs,” says Dominik Laetsch of the University of Edinburgh. “You literally get fewer nucleotides per dollar” when you spend time processing and analyzing unwanted sequences. But here’s the good news: even if your sequences are filled with PhiX, primers, vectors, and genes from species you didn’t intend, you can get rid of all the evidence before anyone else sees your final genomes.

Laetsch is among those developing tools to help clean up sequence data before analysis. Blobtools-light, the newest version of his software, compares your DNA contigs—the overlapping bits of sequenced DNA that are eventually assembled into a final sequence—with known sequences from NCBI’s databases. Then, it provides an easy-to-interpret visualization of this comparison, lumping together sequences thought to be from similar organisms. “We use this as an initial screening tool,” says Laetsch, who studies the bacteria that inhabit pathogenic nematodes, and so is frequently faced with data sets from multiple species. “We can see right away when there are low coverage contigs that aren’t needed.” 

A similar program, called ProDeGe (Protocol for fully automated Decontamination of Genomes), was also described this year (ISME, doi:10.1038/ismej.2015.100, 2015). Like Blobtools, the protocol uses public databases to detect contamination in a genome assembly, then groups contigs into “Clean” or “Contaminant” groups. While Blobtools-light provides a visual charting of sequence groups, ProDeGe spits out lists that users can read through to identify contaminants and determine what they might be. “You don’t have to know a lot about it to use it,” says Mukherjee, who has used the ProDeGe software. “So for biologists who are scared of these kinds of tools because they don’t know how to do bioinformatics, it’s a great solution.” 

More-specific tools also exist. NCBI, for instance, offers VecScreen, which quickly identifies contaminating vectors in your sequence. And tools that are even more advanced will be available on the NCBI site later this year, Lipman says. 

All the tools available to detect contamination must balance specificity and sensitivity—identifying sequences that are definitely contaminants without removing sequences that are part of the target genome—so it’s important to understand the results in the context of your data set, says Edwards. If you’re analyzing a genome from a novel group of species, for instance, programs may flag high levels of contamination simply because existing databases don’t already contain homologues for the organism’s genes—so take the results with a grain of salt. 

Or, if you’re expecting to see high levels of bacterial genome contamination, you can immediately home in on those sequences among the full list of contaminants. Because you know more about the source of your initial sequence and how it has been handled than any automated program, you can make these kinds of judgment calls, Edwards says. “I definitely recommend running your assembly through several different tools and comparing the results.”

Decontamination strategies


Once you’ve pinpointed the contamination—and, hopefully, where it came from—you can move toward cleaning up your data. There are tools to do that, too, including DeconSeq, developed by Edwards’s group. Unlike the more-automated contamination screen programs, DeconSeq requires the user to input contaminant species. Then it automatically removes sequences belonging to those species from the genome assembly.

If you skip the step of contamination removal before you finalize a sequence, someone else might catch it. At NCBI, for instance, Lipman’s group runs a foreign contamination screen on every sequence submitted to GenBank. He hopes that when the screen flags a sequence as contaminated, scientists use it as an opportunity to learn more about their data set and its weaknesses, and change their methods to avoid the problem in the future. “If you just say, ‘OK, I had a little problem in my submission and now I fixed it,’ then this problem is going to keep happening,” Lipman says.

If a genome is already published in the literature or a database by the time you detect contamination—when you’re running more experiments, for instance—then own up and fix the mistake as soon as possible, before it ricochets into the work of other researchers who might be relying on your data for their own experiments. In some cases, this might mean contacting a journal to find out whether a correction or a full retraction is warranted.

“People need to take ownership of their data,” says Mukherjee. “If you find a problem, retract it, clean it up, and then give it back.”

Will the contamination problem get better?

It’s tempting to speculate that as sequencing technologies advance, many of the sources of contamination will simply disappear. There’s some truth to this, says Laetsch. “As the assembly process gets easier, and read lengths start to increase, it will definitely become even easier to pinpoint contamination,” he says. But researchers shouldn’t take that as a signal to stop screening for it, he adds. “Sequencing machines are only as good as the samples you put in them.”

And as databases of genomes become larger, it becomes increasingly difficult to go back and sort through them all to ensure clean sequences. It’s up to individual researchers to do their best with each genome, says Mukherjee. “I think the scientific community in general acknowledges that contamination is a big problem, but there has to be a bigger concerted effort to do something about it.”

Even as contamination rates in GenBank skyrocket, Lipman agrees that there is growing awareness of the problem. Part of what’s leading to the increasing contamination, he points out, “is the positive story that more and more labs are able to do sequencing, which is a wonderful thing.”

Logo KW

Déjà vu [1243]

de System Administrator - domingo, 31 de mayo de 2015, 13:26

Artículo Neurociencias


Déjà vu

por Dr. Nse. Luis María Labath

Resumen: Muchas veces nos sucede que vivimos una situación y nos parece conocida. Esto ocurre a causa de un fenómeno conocido como déjà vu, que tiene varias explicaciones y formas de ser interpretado.

¿Quién no ha tenido alguna vez la inquietante sensación de estar repitiendo una experiencia ya vivida a pesar de que en realidad es totalmente nueva? Este fenómeno bautizado por Emile Boirac como déjà vu ("ya visto", en francés) hace más de un siglo despertó la curiosidad de centenares de científicos a lo largo de la historia.

El déjà vu o paramnesia es una reacción psicológica que produce que el cerebro le transmita a la persona que ha estado en el lugar en el que se encuentra sin quizás haber estado nunca, o que conoce a alguien, aunque jamás lo haya visto antes o, inclusive, que se sienta algo que no se sintió en otra oportunidad. En síntesis, es la experiencia de percibirse como testigo anterior de una situación nueva, pero que en realidad nunca ocurrió.

Ésta sensación dura entre 10 y 30 segundos (las alucinaciones y los falsos recuerdos con los que a menudo se confunde duran mucho más) y tiene un carácter imprevisible y fugaz que guarda relación con el proceso de la memoria y la conciencia humana.

Se produce porque el cerebro tiene varios tipos de memoria. La memoria inmediata, capaz de repetir un número telefónico y luego olvidarse de ellos; la de corto plazo, con sucesos que se perciben como pertenecientes al presente y dura unas pocas horas, y la de largo plazo, con acontecimientos que se distinguen como pertenecientes al pasado y conservamos meses o, incluso, años.

Sentir un Déjà vu es realmente un problema técnico del cerebro; como una especie de anomalía de la memoria, en donde los hechos que están sucediendo se almacenan directamente en la memoria de largo o corto plazo, cuando lo correcto sería que fueran a la memoria inmediata, dando así la impresión de que el hecho ya ocurrió antes.

Hay varias teorías, por el lado de las neurociencias, que intentan dar una explicación a dicho fenómeno. Entre ellas encontramos la propuesta de Alan Brown, psicólogo en Southern Methodist University y autor de “The Déjà vu Experience”, en donde muestra una clasificación de las diversas explicaciones científicas en relación al déjà vu:

1. Doble procesamiento: La idea central es la afirmación de déjà vu como resultado de dos procesos cognitivos paralelos sincronizados que pierden la sincronización momentáneamente. Esta asincronía puede que sea debida a la ausencia de un proceso cuando el otro se activa o a que el cerebro esté codificando la información y recuperándola a la vez, es decir que se estén fusionando dos vías relacionadas que normalmente están separadas. El hecho de estar observando una imagen y a la vez estar recordándola nos aporta una sensación de haber vivido anteriormente esa situación.

2. Neurológica: El déjà vu es producido a causa de una breve disfunción/interrupción en un circuito de la corteza temporal, involucrado en la experiencia de recordar situaciones vividas. Este hecho genera un “falso recuerdo” de la situación. Esta teoría se justifica con el estudio de enfermos de epilepsia de la corteza temporal, los cuales suelen experimentar con frecuencia Déjà Vu justo antes de padecer uno de sus ataques. Mediante la medición de descargas neuronales en el cerebro de estos pacientes, los científicos han sido capaces de identificar las regiones del cerebro donde comienzan las señales déjà vu y de cómo estimulando esas mismas regiones es posible producir esa sensación.


3. Mnésica: Define déjà Vu como una experiencia generada por las similitudes y solapamientos entre experiencias pasadas y presentes. La psicóloga Anne M. Cleary (2008), investigadora de las bases neurales subyacentes al déjà vu, postula dicho fenómeno como un mecanismo meta cognitivo normal que se produce cuando una experiencia pasada guarda un parecido con la presente y, consecuentemente, nos hace creer que ya hemos estado allí. A través de diversos estudios e investigaciones ha mostrado que la mente almacena fragmentos de información, es decir, no guarda la información completa y que, por lo tanto, cuando observamos, por ejemplo, una calle que se parece a otra o que tiene elementos idénticos o parecidos, nos puede surgir esta sensación.

4. Doble percepción o atencional: Se postula que el fenómeno es producido como consecuencia de una distracción momentánea del cerebro justo después de que se haya capturado parte de la escena (recuerdo no explícito). Cuando esta atención es retomada (fracciones de segundo) y realiza una captura completa atribuimos a esa escena un fuerte sentido de familiaridad sin ser conscientes de su origen, dando una sensación de “falso recuerdo”, pues había sido registrada implícita e inconscientemente.

El hecho de que existan diversas teorías demuestra que tal fenómeno no es debido a una única causa. Asimismo, es cierto que no todo déjà vu es consecuencia de un proceso mnésico normal, pues parece existir un tipo de déjà vu relacionado con una alteración mnésica observado en patologías como la esquizofrenia o, tal como se ha mencionado anteriormente, en la epilepsia de la corteza temporal en la que el fenómeno puede durar unos minutos o incluso horas (Thompson, Moulin, Conway & Jones, 2004).

A través de una recopilación de datos por parte de Millon y su equipo se ha observado que, aproximadamente, el 60% de las personas lo experimentan y resulta ser un fenómeno más frecuente bajo situaciones de estrés y fatiga (Brown, 2003).

Acostumbra a surgir entre los 8-9 años de edad, pues para que se produzca un déjà vu se requiere un cierto nivel de desarrollo cerebral. Sin embargo, una vez experimentado, éste se vuelve más frecuente entre los 10-20 años (Ratliff, 2006).

Aunque la mayoría de las personas perciben esta alteración de la realidad en muchas ocasiones de su vida, en algunos casos la angustia causada por la experiencia del déjà vu en sí misma puede dar lugar a mayores niveles de déjà vu, similares a los bucles de retroalimentación manifestados en otros estados de ansiedad, como, por ejemplo, los ataques de pánico. Por eso muchos científicos suponen que, por razones neurobiológicas, la ansiedad puede conducir a la generación este fenómeno.

De cualquier manera, también es cierto que según se envejece o avanzan los procesos degenerativos como el Alzeheimer, se torna más difícil formar recuerdos únicos para lugares o experiencias similares y es muy factible desembocar en la confusión del déjà vu que aflige a los ancianos y a quienes los cuidan. Así pues, eldéjà vu o paramnesia es, por lo tanto, un problema de memoria que ocurre en el cerebro y con el paso de los años este fallo sucede con más frecuencia. Por eso en las personas con la enfermedad del Alzheimer suele ser habitual.

Mientras llega ese tiempo, puede que súbitamente, en medio de un momento cualquiera, surja la sensación de que esa misma escena ya se ha vivido o soñado con anterioridad. ¡Esto que sorprende y a muchos horroriza es la mentada sensación de déjà vu!

Imagen: Denzel Washington, Déjà vu (2006), Director: Tony Scott. 

Leer en sitio web / descargar en PDF:

Artículo de uso libre, sólo se pide citar autor y fuente (Asociación Educar).

Dr. Nse. Luis María Labath

  • Ex Director Médico del Hospital José M. Cullen (350 Camas; Nivel IX; Alta Complejidad). Periodo: 2002-2007.
  • Jefe del Servicio de Clínica Médica Mixta durante más de 25 años ininterrumpidos en el Hospital José M. Cullen.
  • Miembro de Honor de la Asociación Médica Argentina.
  • Designado como Maestro de la Medicina Latinoamericana por la Asociación Médica Latinoamericana. 
  • Más artículos: 
  • Asociación Educar
  • Ciencias y Neurociencias aplicadas al Desarrollo Humano

 Seguinos en:


Logo KW

Dejar atrás el pasado: Cinco estrategias útiles [935]

de System Administrator - lunes, 13 de octubre de 2014, 20:00

Dejar atrás el pasado: Cinco estrategias útiles

Compartido por Sandra Bernal Mora

El pasado es algo que nos acompaña a lo largo de nuestra vida. El lugar del que venimos actúa como una base para conformar quiénes somos, cómo actuamos y cómo pensamos acerca del mundo que nos rodea. Influye no sólo en nuestra perspectiva de vida, sino en muchas más cosas que ahora mismo ni siquiera imaginamos, como las sensaciones y emociones que tenemos ante algo o alguien que no conocemos y del que no tenemos información.

Todas las personas podrán recordar momentos buenos y malos de su trayectoria vital. Sin embargo, existe gente que parece tener una increíble facilidad para estar todo el día reviviendo su pasado. Pasar el día recordando aquello que sucedió antaño (tanto si es malo o bueno) no es precisamente la mejor opción para seguir con nuestras vidas, sino todo lo contrario. Nos mantiene estáticos, nos impide movilizar nuestra energía para realizar nuevos proyectos o, simplemente, disfrutar del día en que nos encontramos.

El problema surge cuando nuestro pasado no nos deja continuar hacia adelante con nuestra vida. Los recuerdos sobre aquello que fue o no fue vuelven a nuestra cabeza una y otra vez, haciendo interferencia con el momento actual en que nos encontramos, impidiéndonos disfrutar del instante que vivimos. Es en este punto cuando debemos tomar conciencia de que el pasado ya pasó (valga la redundancia) y que es en el presente donde nos encontramos.

Recordar aquello tan terrible que nos sucedió, lo mal que se portaron con nosotros, etc. trae de vuelta a nuestra cabeza aquellas emociones de malestar, culpa, vergüenza, rencor… que nos vuelven a hacer daño de nuevo una y otra vez, ¿nada productivo, verdad? Estas personas que se focalizan demasiado en el pasado, corren el peligro de caer sumidos en una gran tristeza o depresión, presas de sus desgracias e inmóviles ante un presente-futuro nada prometedor, ya que esto nos puede llevar a pensar que nuestra vida está destinada a la desdicha.

Es importante saber que para superar el pasado, en primer lugar debemos asumir que no va a cambiar, que debemos aceptar las cosas tal como fueron y dejarlo estar. Resulta fácil decirlo, sí, pero pasar página es imprescindible. Para ello, algunas de las cosas que debemos intentar hacer son:

1. Alza la vista hacia el mundo que te rodea.

Párate a pensar en cuánto tiempo al día dedicas a pensar en tus problemas. Si crees que es demasiado, cabe la posibilidad de que estés muy centrado en ti mismo y, por tanto, olvidándote del mundo que te rodea. Séneca dijo “hay más cosas que nos asustan que cosas que nos hieran verdaderamente, y sufrimos más en la imaginación que en la realidad. ¿Se aplica esto a tu vida? Si es así, reflexiona sobre ello porque quizás estés haciendo trabajar a tus neuronas en tu propia contra. Levantar la vista de tu ombligo para pasar a mirar el sitio en el que estás y la gente que te rodea puede ser un buen primer paso para seguir hacia adelante.

2. Olvida a aquellos que te hicieron daño.

Como ya se ha dicho, vivir rememorando aquello que tanto nos hizo sufrir impide que se cierren esas heridas. Y, que quede claro, guardar resentimiento hacia esa persona (e incluso mostrárselo abiertamente) muchas veces no va a conseguir que el otro se sienta peor sino que somos nosotros los que más nos anclamos en aquello que sucedió.

Nos estancamos pensando en qué le podríamos decir o hacer para hacerle “pagar” aquello que nos hizo y, de esta forma, seguimos frustrándonos y reviviendo nuestro dolor con esos recuerdos. Debemos asumir que somos nosotros mismos los que más nos perjudicamos al no apartar de nuestra mente a aquellas personas que se portaron mal con nosotros.

3. Perdónate a tí mismo.

Comprender que las cosas que hicimos mal ya no pueden deshacerse. En vez de culparnos a nosotros mismos por haber actuado de una determinada forma y no de otra, sería más productivo buscar por qué hicimos eso. ¿Cuáles fueron los deseos, motivaciones o miedos que nos llevaron a hacer las cosas de ese modo?

Seguramente, si echamos la vista atrás, encontraremos que los motivos por los que en ese momento elegimos esa opción eran los que nos parecieron que mejor solucionaban nuestros problemas en ese momento. Ahora sólo podemos intentar aprender de ello, conocernos a nosotros mismos para no volver a cometer los mismos errores y, por supuesto, mejorar… Hay un proverbio que dice “los errores son oportunidades para crecer como persona”. Aplícalo en tu vida.

4. Encuentra un sentido a tu vida.

Tener objetivos y metas en la vida nos permite afrontar los malos momentos. Saber que hay algo por lo que merecerá la pena seguir, nos da aliento para soportar las adversidades puesto que sabemos que cuando éstas terminen, podremos hacer aquello que anhelamos.

Si en este momento no tienes ningún deseo o meta a la vista, quizás estés dejando muchas posibles opciones fuera de tu cabeza. Si no se te ocurre nada, una de las cosas que pueden dar sentido a tu vida puede ser trabajar como voluntario ayudando a otras personas o luchar por una causa que creas justa. Realizar nuevos proyectos o ayudar a los demás pueden ser algunas de las cosas que pueden aportar sentido a nuestra vida. Sabrás que es algo que te aporta bienestar cuando decidas dedicar parte de tu tiempo a hacer eso por el mero placer de hacerlo.

5. Volver a empezar.

A lo largo de nuestra vida, podemos encontrarnos en situaciones que se nos exijan tener que volver a empezar desde cero. A pesar de que en un primer momento veamos todo negro, debemos pensar que eso no es así. Que nosotros no veamos las diferentes alternativas que tenemos no significa que éstas no existan o que no vendrán en un futuro.

¿Cuántas veces has tratado de imaginarte cómo sería esto o lo otro y luego no se ha parecido en nada a lo que esperabas? Eso es porque te estabas basando en tus creencias para deducir cómo serán las cosas en vez de en hechos objetivos. Saber cómo va a salir algo que aún no ha ocurrido es tremendamente difícil si no conocemos las circunstancias que nos acompañarán.

Sin embargo, esto no quiere decir que no podamos ser dueños de nuestro destino. Una forma de tomar las riendas de tu vida puede empezar por marcarte pequeños objetivos a corto plazo (con fecha meta incluida y marcada en un calendario) que te lleven poco a poco hacia aquello que deseas. Dicen que Roma no se hizo en un día.


Logo KW

Denying Death: Is Radically Longer Life Good for Society? [1662]

de System Administrator - domingo, 14 de febrero de 2016, 23:28

Denying Death: Is Radically Longer Life Good for Society?


It’s no longer a radical question.

The aging literature is replete with treatments that could prolong lifespan by 20-40%, at least in lab animals. Interventions such as caloric restriction, rapamycin and metformin have been studied for decades for their anti-aging capacity. Although there is still some discrepancy in their effectiveness in primates, the biomedical community agrees that they’re promising.

What’s more, new interventions keep coming out. In the past two years, multiple scientific teams demonstrated the rejuvenating powers of young blood. Just last week, a study published in the esteemed journal Nature found that eliminating senescent cells in aged mice boosted their lifespan by a hefty 30%.

With the FDA now recognizing aging as a disease and greenlighting the first anti-aging clinical trial, humans seem to be on the fast track towards a Methuselah-like existence.


But maybe it’s time to pause and think. Are extended lifespans good for society and humankind as a whole? Or is the pursuit of immortality merely a narcissistic fantasy that’s sucking away scientific resources from other pressing issues?

Should we embrace our end, or should we cure aging? Are human lifespans long enough as is?

This was the central motion of a provocative debaterecently hosted by Intelligence Squared. Pitting a philosopher and a sociologist against two scientists, the well-rounded debate delved into the ethical and social consequences of radically increasing human lifespan.

Arguing against the idea that lifespans are long enough is the all-star team of Dr. Aubrey de Grey, chief science officer of SENS Research Foundation and famed biomedical gerontologist, and Dr. Brian Kennedy, the president of the Buck Institute for Research on Aging.

The team faced off against Dr. Ian Ground, a philosopher at the University of Newcastle, and Dr. Paul Root Wolpe, the director of the Emory Center for Ethics and former bioethicist for NASA.

The debate, just short of two hours, is well worth a listen in full.

Unlike most scientific discussions of life extension, this debate encompasses but also surpasses purely biomedical arguments, heading straight into the question of what makes our lives a “human experience.”

Limited Lifespan Makes Us Human

Arguing against the motion, Ground and Wolpe went for a hard-hitting sociological and philosophical approach. The question is not whether life extension is possible, but whether it’s desirable as an intentional scientific goal, said Wolpe.

According to Wolpe, the quest for immortality is nothing but “a kind of narcissistic fantasy,” a part of a larger misguided view of a science-technological utopia. We have an idealized view of how technology is going to change the basics of human nature and our society for the better, but there’s no evidence of that, said Wolpe.

Everyone wants to live longer, but is it good for our society? “Do longer lives make the world a better, kinder place?” asked Wolpe rhetorically. “I think not.”


Let’s break it down.

As people get older, they often become more conservative. Imagine if the Civil War generation were still around, said Wolpe. Would civil rights have advanced as much as they did?

Young people are the ones who come in with new ideas, and there’s an evolutionary wisdom of letting the older generation disappear. If we dramatically extend human lifespan, we would in essence be obliterating the generational shift that occurs over time, he said.

Then there are socioeconomic consequences. Not everyone will be able to afford life-extending treatments; those who can are likely to be the rich and powerful elderly 1%.

“Living longer may help people accrue wealth and contribute to inequality,” said Wolpe.

Ground agrees with Wolpe, but laid out an even more provocative argument.

We’re essentially talking about the value of life, said Ground. A human life is, in essence, a limited life, he argued, and eternal life amounts to a rejection of what is human.

Death organizes our lives, Ground explained. Because we have a finite end, we have a timeline for ourselves: when to settle down, when to have kids, when to let go. As humans, we make choices based on opportunity costs, which are priced in the currency of time — our most precious resource.

Choosing how to spend that resource is what makes you a particular person, he said. Imagine if you could live forever. Wouldn’t you be tempted to try other occupations, to hunt around for “the one,” to put off important life decisions indefinitely?

By not settling down into a life, humans essentially lose themselves.

Ground compared the story arc of a human life to that of a movie.

“Movies that have no endings also lose their middles and beginnings. They will no longer be movies,” he said. The human life is analogous, and living longer disrupts the story of what’s necessarily human.

Increasing Lifespan Is Our Social and Moral Obligation

De Grey and Kennedy, both of whom argued that life extension is worth pursuing as a goal, countered the opposing team with a practical argument: that increased lifespan often leads to increased health span, which in turn lowers the socioeconomic cost of caring for our elders.

Research with lab animals suggests that if we achieve lifespan extension in humans, we’ll not only live longer, but likely also spend most of our twilight years disease-free.

Last year the FDA finally recognized aging as a disorder that the medical community could target and potentially treat, said Kennedy. It’s a paradigm shift, and a welcome one.


We know that lifespan has essentially been going up roughly 1 year in every 4, said Kennedy. But healthspan is not going up at anywhere near the same rate. The United States spends 19% GDP on healthcare, most of which is used in the last 6 months of a person’s life, explained Kennedy.

Thus far, medical care is focused on treating age-related diseases — diabetes, cancer, dementia — one by one, with little success. It’s a game of whack-a-mole and one that we’re losing.

Yet when we look at the broader health landscape, age is the single greatest risk factor for these chronic illnesses. By targeting aging, the medical community hopes to delay the onset of most — if not all — of these killers.

Life extension, if it happens, would benefit society as well.

We are in the “age age,” said Kennedy. With more elderly people on the planet than ever before, some sociologists are calling our current state the “silver tsunami.”

People generally retire before 70 due to health, family obligations or a desire to quit work and enjoy life. But if we increased healthspan and lifespan, these people could potentially work longer and contribute more to society, said Kennedy.

The team also believes that delaying mortality wouldn’t exacerbate global overpopulation.

“Birth is geometric but dying is linear,” said Kennedy. Data clearly show that more developed countries have fewer children, and longer lifespan does not go hand in hand with a higher population number, he explained.

Although most of de Grey and Kennedy’s arguments were biomedical, de Grey capped off his team’s thoughts with a philosophical question: Isn’t it our obligation to our descendants to pursue life extension?

Today, we are facing a choice, whether to wage a war on aging or not, he said.

There’s no doubt that if we try hard to tackle the problem, we’ll get to a solution sooner. And since we’re on the precipice of a scientific breakthrough, I believe we have a moral obligation to figure out ways to extend the human life, and give our descendants the choice whether or not to use it, argues de Grey.

“Do we really want to condemn an entire cohort of humanity to an unnecessary short life just because we thought society might not like it much?” he asked.

Life extension is like any other previous scitech breakthrough, with the potential to benefit or harm. Humans fear what’s new, said de Grey. But that’s not a logical reason to shy away from pursuing the science.

“Yes, there is certainly much more to life than more life. The question is, is it an either-or?” said de Grey in his closing statement.

“The implicit premise…of the other side is that, in fact, there is an either-or, that life will actually be, in some profound senses, a lot worse if it's a lot longer,” he said. “I think that’s extremely uncertain.”

Again, there are plenty of interesting morsels in the debate, and I encourage you to give it a listen. In the end (spoiler!), the debate audience sided with de Grey and Kennedy—that our lifespans are not long enough, and that life extension is a worthy goal.

Do you agree?

Image Credit:

Shelly Fan 

  • Shelly Xuelai Fan is a neuroscientist at the University of California, San Francisco, where she studies ways to make old brains young again. In addition to research, she's also an avid science writer with an insatiable obsession with biotech, AI and all things neuro. She spends her spare time kayaking, bike camping and getting lost in the woods.



Logo KW

Dependencia del whatsapp. Del hábito a la adicción [786]

de System Administrator - lunes, 16 de marzo de 2015, 20:50

Dependencia del whatsapp. Del hábito a la adicción

María Dolors Mas

¿No dejas de mirar el móvil para ver si ha leído tu mensaje? ¿ Contienes el aliento mientras ves escribiendo….? ¿ Te agobias cuándo ves la última hora a que se ha conectado tu pareja? ¿ Te agobias aún más cuando tu pareja, que se supone que esta trabajando, esta en línea? ¿Sientes ansiedad cuando te llega un mensaje, cuando no te llega, cuando no te responden o tardan en responderte? ¿Confundes los sonidos y tienes la sensación de que se trata de una notificación de what’s app cuando, en realidad, era otro sonido? ¿Abres el what’s app cuando no tienes mensajes nuevos…por si acaso?

Si has respondido que sí a estas preguntas, tienes síntomas de ser un adicto al what’s app o, al menos, que usas la aplicación “ un pelín” obsesivamente. Y, aunque a muchos les pueda parecer divertido, en realidad, la gente que padece este trastorno lo pasa mal y, también, hacen sufrir a su entorno.

Decimos que son adictos las personas que son capaces de escribir 40 mensajes entre las diez de la noche y las dos de la madrugada, lo cual altera el transcurso normal de la vida de cualquiera que trabaje o estudie, tenga amigos y aficiones. También tienen un problema de adicción quienes utilizan esta aplicación para controlar y cuando no son capaces de charlar con otras personas sin dejar de consultar el móvil de forma constante y respondiendo a los mensajes de forma inmediata, cualquiera que sea el escenario; de hecho, la escena de una pareja o de un grupo de amigos con una cerveza en una mano y con el móvil en la otra es frecuente y representa otro de los principales problemas del WhatsApp: el desinterés por la vida real,  la pérdida de control, una interferencia grave en la vida cotidiana y una dependencia constante son algunos de los síntomas que identifican a las personas que han pasado de ser usuarios del WhatsApp  a enfermos.

Por otra parte, es importante saber si la persona que sufre esta adicción tiene otros problemas psicológicos como inestabilidad emocional, inseguridad, incapacidad de comunicarse personalmente, una timidez extrema o, incluso, ansiedad o fobia social. Ello es importante ya que rompe un mito, porque, en contra de lo que a priori pueda parecer, no sólo afecta a adolescentes, también a personas maduras con algunas patologías psicológicas ya que el no ver la cara de la otra persona hace que los usuarios del What’sApp se lancen a la piscina y se sumerjan en conversaciones más intensas y espontáneas, difíciles de matizar sin verle la cara a la otra persona. Aunque debido a su reciente implantación en la sociedad aún no hay datos de esta adicción asociada al uso irracional del WhatsApp, entre el 80 y 90% de la población se conecta a Internet por motivos de ocio y entre el 5 y el 9% realiza un uso inadecuado de esta herramienta.

Lo reconozco, ¡ lo miro mucho!…pero ¡ no soy un adicto!, ¿verdad?

Tal vez, nos reconozcamos, o quizás, en alguien próximo en la siguiente descripción, paso a paso.

Síntomas de dependencia de What’s app:

  1. Aquí y ahora, pero ahora mismo,¡ya!

Domingo, 03:00h. La luz verde de mi What’s app, tintinea. Si fuera por eso, no habría problema. Es el sonido de las notificaciones “¿Hola?, ¿cómo estas?, ¿qué haces?, ¿estás enfadada?” Opto por no contestar; es obvio que a las 03:00h, ¡estoy durmiendo! Pero las notificaciones siguen como si tuviera un grifo abierto, justo al lado de la oreja.vAlguien me susurra: “lo bueno del caso es que, realmente, sea quien sea, va a creer que estas enfadada”. Sin darme cuenta, me estoy buscando problemas, mientras dormía. 03:30h, del domingo, me levanto y empiezo a contestar. A las 05:00h, justo dos horas antes de levantarme, vuelvo a la cama después de haber resuelto un problema que podía haber esperado a la mañana siguiente. Lo peor es que, entonces, empieza una discusión de pareja… sin necesidad de what’s app.

Supongamos que la discusión fuera a través de la app, asumiendo que se trata de una comunicación asíncrona en la que, a pesar del uso de emoticonos, no podemos observar el rostro de la otra persona y, por tanto, nos perdemos gran parte de la comunicación, la no verbal. A esto hay que sumar la posible existencia de malentendidos, confusiones… que se generan debido a la asincronía y que, muchas veces, acaban con la ruptura de las parejas. Por cierto, también a través de what’s app; más cómodo y más tranquilo, al menos para uno de los dos

Por otra parte, what’s app también tiene una parte positiva ya que es una herramienta de comunicación eficiente y rápida, con sólo conectarse a una red wifi, en cualquier parte del mundo, y mediante la cual se pueden compartir fotos, vídeos y comentarios, eso sí, siempre que no sean largas y precisas explicaciones que impliquen multitud de mensajes, porque allí es dónde ya se producen la confusión y el desconcierto, los malentendidos y los enfados.

  1. ¿ Por qué no me contesta?

Si miras el móvil sin parar, no importa dónde estés: en casa, en el trabajo, en la cama, en el cine, comprando en el supermercado… Si das un “saltito”de alegría- a pesar de que intentas contenerte- cuando oyes el sonido de la notificación es que estas “hiperconectado/a”.

Si, además, te muestras cada vez más desanimado/a cuando levantas la tapa de tu móvil y no hay lucecita ni mensaje… lo más probable, es que seas dependiente del what’s app.

Es posible que alguno de nosotros hayamos tenido, en alguna ocasión, problemas con un familiar o un amigo porqué esté se sentía agobiado ante la ausencia de respuesta al what’s app enviado. Estamos ante alguien dependiente de una app que hace de una sencilla aplicación -una herramienta más de comunicación en nuestro entorno 2.0-,  el equivalente a la comunicación síncrona, es decir, lo que llamamos popularmente el “face to face” en el que las intervenciones de emisor y receptor se suceden sin pausa alguna.

  1. La culpa es del “double check”

¡Claro! Sólo que es falso; para el adicto, cuando envía un what’s app, debe esperar. Para el adicto, el momento en que aparece el “double check” es crucial porque significa que la persona que esta al otro lado de la pantalla, ha leído el mensaje. Sin embargo, eso sólo significa que el receptor lo ha recibido pero no, necesariamente, que lo haya leído. Esto, nuevamente, es origen de discusiones y enfados, lo cual no es más que otro síntoma de dependencia.

Si no lo has visto, te aconsejo el cortometraje “Doble Check” en que esta situación se retrata en una mezcla de realismo e ironía y dentro de una relación de pareja.

  1. El síndrome de la “vibración fantasma”

La obsesión que el adicto al What’s App tiene por recibir notificaciones, le lleva a oír vibraciones que, en realidad, nunca se han producido. Estas se denominan “vibraciones fantasma” según un estudio publicado por la Sociedad Británica de Psicología, y son generadoras de un intenso estrés, directamente proporcional al número de veces que miramos el móvil para asegurarnos y reasegurarnos de la llegada del mensaje. Según este estudio, el estrés es altamente perjudicial y, sobretodo, debería ser eliminado en el trabajo y, para ello, se deberían desconectar los móviles en los lugares de trabajo.

Sin embargo, José Antonio Molina, psicológo participante en el estudio “Control de movilemia” afirma que “…los ‘smartphones’ están muy implantados en el día a día. Conseguir que alguien lo apague es (casi) misión imposible…” Según este estudio, el 55% de los españoles come con el móvil al lado, un tercio se lo lleva al baño y sólo un 25% lo apaga cuando mantiene relaciones sexuales con su pareja.

¿ Cómo puedo reducir el uso de What’s App?

  1. Desactivar las notificaciones

Como mínimo el sonido, ya que es una fuente de distracción permanente y , como hemos dicho anteriormente, un factor estresante externo intenso. Y más si estás dentro de un grupo de WhastApp (más de 5 personas por ejemplo) y están todos enviando mensajes para organizar la excursión del fin de semana o la cena del viernes por la noche.

Si lograste desactivar el sonido y te sientes algo menos ansioso, puedes, también, desactivar la lucecita que titila;  así, obvias ir mirando de reojo si entró un mensaje.

  1. Alejar el móvil de la vista

Guárdalo en tu mochila o bolso. Y si te atreves, sácalo completamente de tu radio de acción para que te debas levantarte para  irlo a buscar. Te darás cuenta de que cuando trabajas y tienes el móvil al lado, es muy fácil distraerse, mirando si ha entrado o no un mensaje, lo cual, como ya hemos visto, es una conducta adictiva.

  1. Ocultar el icono de la vista

Si el icono aparece como un acceso directo, sólo al encender el móvil, se puede caer en la tentación de entrar en la app. Sin embargo, no hay ningún símbolo de mensaje nuevo, ni tintinea ninguna lucecita; entonces, ¿Para qué entramos si no hay ningún mensaje nuevo? Puede ser para repasar conversaciones anteriores, ver si alguien actualizó su foto de perfil, mirar cuando fue la última vez que la otra persona se conectó y así confirmar si leyó el mensaje.

Este es un comportamiento compulsivo, con un grado de adicción medio-elevado. Es decir, la persona abre la aplicación muy seguido, independientemente, de que  tenga mensajes nuevo que leer.

  1. Apagar el móvil

Un paso más allá sería apagar el móvil, especialmente, en el trabajo y en situaciones sociales.. Lo que se pretende con esto es que sea más engorroso  revisar el WhastApp por el simple hecho de que ahora tener que encender el móvil y esperar un tiempo hasta que arranque.

  1. Desactivar el Wi-Fi

Otra alternativa sería desactivar el Wi-Fi. Desde un punto de vista psicológico, juega favorablemente a nuestro favor, en el sentido de que si no hay internet, no entra ningún mensaje nuevo y, entonces, no hay nada que esperar, ya que nunca llegará. Aunque puede parecer una buena alternativa, actualmente, las TIC lo ponen muy fácil: el Wi-Fi que se pueden activar/desactivar a placer con lo cual puede dar la sensación de que el/la adicto/a esta cumpliendo el plan cuando, en realidad, sólo lo hace ante quien le interesa.

  1. No esperar un mensaje de nadie

Otra artimaña psicológica. ¿Quién te va a escribir? Cuando uno espera un mensaje de otro se genera ansiedad al pensar que, en cualquier momento, lo podrías estar recibiendo. Sin embargo, si eres capaz de autoconvencerte de que nadie va a enviarte ese mensaje deseado, todo se simplifica mucho más, dejas de esperar y disminuye tu nivel de ansiedad.

  1. Eliminar la app

Si todo lo anterior no ha sido suficiente, la medida más extrema que puedes tomar es eliminar la app. De hecho, si tienes una dependencia del tabaco o del alcohol, en algún momento, deberás dejar de fumar o beber, ¿cierto? En el caso de what’s App, ocurre lo mismo.

Pero, teniendo en cuenta que de la app también se puede hacer un buen uso, como ya hemos dicho, entraría en juego la psicoeducación y, con ello la proposición para el/la paciente de eliminar la app durante un periodo de 15-21 días, suficiente para entender las virtudes comunicativas y los defectos del abuso.

Dicho de otra manera; una copita de buen vino en la comida tiene efectos cardiovasculares saludables. En cambio, el vino, tomado en grandes cantidades, deriva en una dependencia que genera riesgos para la salud. Lo mismo podemos decir de What’s app.

Si por motivos personales esta no es una opción, como mínimo, date el gusto,y casi el lujo, de contestar a los mensajes que te llegan, según su prioridad. De hecho lo que estas administrando es tu propia privacidad, que es sólo tuya, y la base para cambiar la forma como administras tu conectividad a What’s app y, por tanto, tu adicción.

No es fácil cambiar de hábitos y, menos aún, hacernos conscientes de que algunas conductas que tenemos pueden estar perjudicándonos. En este post, hemos hablado del WhatsApp, pero lo mismo se podría extender a cuando usamos compulsivamente cualquier red social a la que pertenezcamos o cualquier otra aplicación instalada en nuestro móvil.

¿Te considerás un/a adicto/a al WhatsApp? ¿Vas a hacer algo al respecto?  Te invito a contarnos tu caso a través de los comentarios.


María Dolors Mas es psicóloga en Barcelona con Nº Colegiada 17222. Sus especialidades son la ansiedad, la depresión y el TDAH. Puedes dejarle tu consulta y resolver tus inquietudes a través de este enlace.


Página:  1  2  3  4  (Siguiente)