- Compact style
- Indico style
- Indico style - inline minutes
- Indico style - numbered
- Indico style - numbered + minutes
- Indico Weeks View
Help us make Indico better by taking this survey! Aidez-nous à améliorer Indico en répondant à ce sondage !
Nos dia 30 e 31 de julho deste ano, na Universidade de São Paulo, realizaremos o nosso workshop comemorativo de dez anos da RENAFAE. Nesta edição, as apresentações estarão abertas para todas as áreas das atividades relacionadas com a física de altas energias: análise de dados, instrumentação, computação e divulgação científica. O modelo será similar ao da versão anterior do nosso workshop, onde cada pessoa ou grupo pode submeter uma contribuição com os resultados dos trabalhos que estão desenvolvendo em cada uma destas quatro áreas.
Para cada uma destas quatro áreas, foram escolhidos coordenadores: análise de dados (Jun Takahashi), instrumentação (José Seixas), computação (Rogério Iope) e divulgação científica (Márcia Begalli). Além de organizar as sessões paralelas sobre cada tópico, serão responsáveis para incentivar os vários grupos a apresentarem seus trabalhos. No final do encontro, os coordenadores apresentarão em sessão plenária os principais resultados de cada área expostos durante as sessões paralelas.
Haverá apoio financeiro para os participantes de fora de São Paulo que tiverem dificuldades de financiamento próprio, incluindo a hospedagem nos alojamentos da USP (http://www.cepe.usp.br/?page_id=53). As inscrições, solicitação de apoio, submissão de contribuições e programa se encontram nesta página.
As sessões plenárias da tarde serão transmitidas via IPTV da USP no endereço https://iptv.usp.br/portal/transmission.action?idItem=39183
In this talk we present a search for resonant and non-resonant Higgs boson pair-production decaying to $\mathbf{b\bar{b}\tau^+\tau^-}$, considering the semi-leptonic and fully hadronic final states of the $\tau$-leptons. The analysis uses 36.1 fb$^{-1}$ of data collected by the ATLAS experiment at the LHC in 2015 and 2016 at a centre-of-mass energy of $\sqrt{s} =$ 13 TeV. The inclusion of the fully hadronic decay channel in this analysis further improves the sensitivity of the $hh \rightarrow\mathbf{b\bar{b}\tau^+\tau^-}$ decay in contrast with Run-1 results. Results for non-resonant Higgs pair-production are compared to Standard Model predictions. The data are also analyzed to probe resonant Higgs pair production, constraining a model with an extended Higgs sector based on two doublets and a Randall-Sundrum bulk graviton model.
The proton-proton collisions, at the Large Hadron Collider (LHC), are confirming properties of the Higgs Boson predicted by Standard Model (SM) and providing tools for observation of all Higgs decay channels. The dibosonic decays, despite their low branching ratios, are well understood and have lead the Higgs discovery. In the Run 2 conditions many results have shown considerable agreement between the SM predictions and the experimental data. The measurement and observation of the Higgs decay in a b-quarks pair (branching ratio ≃ 58%) is crucial to constrain the overall decay width of SM Higgs and establish coupling with fermions.
Due to the QCD colour-confinement, the quarks and gluons are not observed directly, but the jet energy associated to them can be measured. The energy reconstruction and identification of b-jets in ATLAS has a crucial role to search the Higgs Boson by SM and in scenarios with new physics contributions.
At the LHC the large backgrounds arising from multi-jet produc- tion make an inclusive search for H → b ̄b/cc ̄ decays extremely chal- lenging. The most sensitive production modes for probing H → b ̄b/cc ̄ decays are those where the Higgs boson is produced in association with a W or Z boson, because their leptonic decay modes lead to clean sig- natures that can be efficiently triggered on, while rejecting most of the multi-jet backgrounds.
For the studies of the SM Higgs, the ATLAS collaboration applies decoupled b- and c-jet energy corrections to improve the Higgs mass resolution, the signal sensitivity and significance.
The discovery of the Higgs boson in 2012 provided confirmation of the proposed mechanism of EWSB and also heralded a new era of precision Higgs physics. This CMS analysis presents measurement of the Higgs boson production rate in vector boson fusion(VBF) mode, decaying into WW→2l2ν and ZZ→4l channels. With gauge boson couplings in both the production and decay vertices, a VBF measurement is a powerful probe of the VVH coupling. In order to improve signal significance we employ a machine learning technique based on deep neural networks for signal and background separation.
The ATLAS experiment is conducting several high precision measurements in the Standard Model, providing stringent tests of QCD theoretical predictions and constraining the models describing the parton distribution function of the proton. In this talk, we will discuss some measurements of inclusive vector boson production as well as the production of vector bosons associated with heavy flavor jets in the sqrt(s) = 13TeV kinematic regime performed by the ATLAS experiment.
LHCb, while purpose built for b-physics, also functions as a general purpose forward detector, covering the pseudo-rapidity range 2.0 to 5.0. A wide variety of forward production measurements, used to constrain the proton PDFs, have been performed using the datasets collected in Runs 1 and 2 of the LHC. These include measurements of jet production which will be presented, highlighting the scope and sensitivity of the LHCb physics programme.
The installation of scintillating pad detectors (Herschel), bracketing the LHCb detector along the beamline, have significantly enhanced LHCb's sensitivity to central exclusive production. Additionally, dedicated triggers during the early measurement period of Run 2 have produced an extended CEP dataset. A summary of results from Run 1 as well as early results from Run 2 will be shown.
De forma a divulgar e popularizar a Física de Partículas e as investigações levadas a cabo no Grande Colisor de Hádrons do CERN, os grupos experimentais do CMS e do ALICE do Instituto de Física da Universidade Federal do Rio Grande do Sul (UFRGS) se uniram para promover um projeto piloto de divulgação junto a estudantes de Ensino Médio de escolas do Rio Grande do Sul. Este projeto visa promover atividades em escolas de Ensino Médio de cunho informativa, bem como experimentos que revelem a natureza das partículas elementares. Atividades desta natureza se propõem a motivar a participação de estudantes na Masterclass a ocorrer na UFRGS em 2019, tendo como público-alvo estudantes do terceiro ano do Ensino Médio com o objetivo de ser uma atividade de incentivo ao ingresso na carreira científica.
Nessa palestra serão relatadas e discutidas as atividades de divulgação científica que vêm sendo promovidas pelo Centro de Pesquisa e Análise de São Paulo (SPRACE) ao longo desses dez anos. Serão também discutidas as perspectivas para o seu desenvolvimento e expansão futuros.
O projeto de extensão propõe a divulgação da Física de partículas de forma interativa para alunos de diversos graus de escolaridade, tendo como base o projeto intitulado International Masterclasses Hands on Particle Physics. O Internacional Masterclasses é realizado uma vez por ano organizado por diversas instituições com apoio do Centro Europeu de Pesquisas Nucleares (CERN). Mais de 10.000 alunos de ensino médio, de 47 países, participam dessas atividades. A UFRJ é uma das instituições integrantes desse projeto, sendo a organização local feita por professores do Laboratório de Física de Partículas Elementares (LAPE), os quais são membros de um experimento localizado no CERN. Uma palestra inicial é realizada, onde o assunto é levado até o público alvo para enriquecimento do conteúdo, ou primeiro contato. Em seguida, os alunos realizam atividades interativas no computador, com o objetivo de se familiarizar com a Física de partículas, tornando possível uma compreensão do que foi apresentado na palestra. Finalmente, uma videoconferência é realizada com pesquisadores do CERN e outros grupos participantes de diferentes países, com o propósito de debater os resultados, somar conhecimentos, levantar questionamentos e tirar dúvidas.
O principal objetivo é atrair estudantes para cursar Física e áreas afins, com ênfase para a Física de partículas. Além de desconstruir a ideia de que essas áreas são restritas, também temos como meta divulgar e alfabetizar os alunos nesse tema.
The High Energy Physics Instrumentation Center (HEPIC) of Physics Institute of University of São Paulo (USP) has produced - in recent years - different outreach activities, focusing to promote a dialogue between scientists and school actors (teachers and students). These actions generated different publications and educational proposals to teach particle physics - specially high energy physics - to students and teachers of the public schools of São Paulo. According to debates produced by authors like Levy-Léblond (2004) and Klein (2013), it is important to reduce the gap between physicists and society, in order to improve the scientific culture of students. The purpose of this presentation is to analyze the Masterclasses Hand On Particles Physics - CERN - ALICE and a teacher training course developed in this context. The results obtained indicate that an important aspect of Nature of Science promoted in these activities is the understand of science as a knowledge produced by a community. In particular, the role of cultural acquisition of these interactions is recognized as a determining factor for overcoming the stereotypes of scientists and the recognition of national science (Watanabe, 2015).
Lévy-Leblond, J. M. (2004). Science in want of culture. France: Futuribles.
Klein, E. (2013). Comment dire avec des mots ce don’t parle physique? In M. F. Chevallier; J. M. Dabadie (orgs.). Partager la science (pp 97-119). France: Actes Sud.
Watanabe, G. (2015). A divulgação científica produzida por cientistas: contribuições para o capital cultural. (Tese de Doutorado em Ensino de Física), Instituto de Física, Universidade de São Paulo, São Paulo.
O Projeto Atlas Open Data e o evento Master Class - Hands on Particle Physics têm sido conduzidos pelo grupo ATLAS - USP com o objetivo de orientar e treinar estudantes de iniciação científica ligados ao Programa Unificado de Bolsas da Universidade de São Paulo. Os alunos desenvolvem projetos de análise de dados reais e de simulação Monte Carlo disponibilizadas pela Colaboração ATLAS através do Atlas Open Data e que correspondem ao período de colisões pp a $\sqrt{s} =$ 8 TeV do LHC. O Projeto Atlas Open Data e a participação destes estudantes no Master Class contribuem para o desenvolvimento das habilidades necessárias a um físico(a) experimental de altas energias no sentido de prepará-lo(a) para interagir junto a uma colaboração internacional, de fundamental valor para o intercâmbio de resultados, avanço do conhecimento, além de divulgação científica.
Vou apresentar o status do projeto CREAT (Cosmic Ray Experiment at Antarctic) dedicado a estudar possíveis correlações entre a incidência de raios cósmicos e formação de nuvens. Este projeto, dividida em 3 fases, tem uma versão piloto tomando dados de fluxo de raios cósmicos desde 2014 na estação Criosfera 1 na latitude 84, a 640km do Polo Sul. A segunda fase deve ser instalada este ano e consiste no upgrade da versão piloto. A terceira fase consistirá na instalação de um telescópio de muons, com medidas de fluxo, distribuição e energia, representando a componente de mais alta energia, e de um detector de neutrons, cobrindo o espectro de baixa energia.
The Resistive Plate Chambers (RPC) are used in the barrel and forward region of the CMS muon system. They provide a muon trigger and are used in the muon trajectory reconstruction.
The future increase of the LHC luminosity (HL-LHC) imposes a challenge to the RPC system. In order to cope with the new conditions, an upgrade is planned. In the forward region, two additional RPC stations called RE3/1 and RE4/1, based on improved RPC technology will be installed. The link boards of the present RPC detectors will be upgraded allowing better time resolution and higher rate capabilities.
During the last years, several studies on the performance of new technologies and configurations have been done using Monte-Carlo simulations and testing new detectors in the Gamma Irradiation Facility at CERN. The results indicate that the technology to be used for the extension of the RPC system is HPL double gap RPC.
This talk will present the main activities are developing by Brazilian groups, in the special of the UERJ and UNICAMP, on RPC upgrade project Phase I and our proposal the contribution for the RPC Upgrade Phase II program will be finished with the installation of the chambers during the Yearly Technical Stops at the end of 2022 and 2023.
A segunda fase do upgrade do LHC terá uma luminosidade integrada dez vezes maior ($3000~fb^{-1}$) que os dados coletados durante as Runs I-III, em conjunto. Com isso o upgrade do principal calorímetro hadrônico do ATLAS (TileCal), durante o regime de alta luminosidade, inclui uma renovação completa da sua eletrônica, porém sem alterar as características mecânicas e óticas do detector. Atualmente, as telhas cintilantes do TileCal são agrupadas com o objetivo de formar as células do calorímetro. Assim, o TileCal possui uma resolução geométrica que é determinada pelo tamanho de suas células e a quantidade de fibras acopladas às suas fotomultiplicadoras. Contudo, há uma possibilidade técnica de utilizar informações individuais de cada uma das telhas, a fim de tornar mais fina a granularidade do detector, modificando apenas a forma da leitura do sinal ótico do calorímetro sem alterar sua parte mecânica.
Jatos de partículas com alto momento transverso tendem a depositar sua energia em camadas mais profundas do calorímetro. Portanto, ao dividir estas células em diferentes sub-regiões, será possível adquirir, com mais detalhes, o perfil longitudinal dos jatos. Além disso, melhorias na reconstrução do momento, massa e medidas de posição angular dos jatos, juntamente com outras variáveis como energia transversa, também serão beneficiadas por um detector de granularidade mais fina. Para isto, deseja-se empregar, para cada célula, um tubo fotomultiplicador com capacidade de leitura multi-anodo, que é capaz de ler o sinal de cada fibra individualmente e, assim, obter informação adicional da distribuição de energia depositada numa célula.
O processamento de sinais desenvolvido objetiva associar a imagem formada na fotomultiplicadora multi-anodal à uma região espacial da célula em questão. Métodos de separação cega de fontes estão sendo aplicados. Em particular, a Fatoração Não-Negativa de Matrizes (NMF), devida à restrição de dados não-negativos ser uma característica dos pixels que formam as imagens na fotomultiplicadora. Introduzindo esparsidade aos fatores da NMF, podemos interpretar a técnica como um método de clusterização, que associa uma sub-região da célula à um determinado cluster. A Análise de Componentes Independentes (ICA) também foi aplicada com o objetivo de estimar os sinais originais de cada uma das telhas, a partir das misturas lineares das fontes. Resultados preliminares mostram uma possível separação da célula em sub-regiões direita e esquerda, tornando possível uma granularidade duas vezes mais fina que a atual.
Será descrito o Muon Forward Tracker (MFT) de ALICE e a contribuição do Grupo Experimental de Físicas de Altas Energia (GEFAE) da UFRGS no seu desenvolvimento. O MFT é um detector do tipo pixel de silício projetado para aprimorar a resolução na determinação dos vértices das trajetórias observadas pelo espectrômetro de múons do detector ALICE/CERN. É composto por 10 planos de sensores totalizando 469 Megapixels e será instalado durante o LS2 do LHC, próximo ao ponto de interação dos feixes. Os dados coletados pelo MFT serão essenciais para elucidar o comportamento de J/Psi com $ p_T < 3 \text{GeV} $, com destaque à separação dos sinais correspondentes aos J/Psi originários no ponto de interação daqueles provenientes de mésons B, de maior vida média, através do seu canal de ouro B $\rightarrow$ J/Psi + X. O GEFAE tem contribuído para o aprimoramento e confecção de estruturas de suporte do detector, particularmente o Patch Panel, além do sistema de reconstrução das trajetórias e simulação do detector que demandará novo software regido por O2. Implementamos modelo de fotoprodução de mésons pesados em UPC e PC com predição para pp, pA e AA. Buscamos desenvolver análise neste setor.
After many years of R&D the new Tracker of the LHCb experiment, one of the main components of its upgrade, based on thin scintillators fibers coupled to SiPM, named SciFi project, has recently started in production phase. I will review the SciFi project, concentrating on the description of the new Front-end electronics and the test suite mass-production results, the main CBPF contribution.
In about two years, the ATLAS experiment will enter a new phase of data taking (Phase-I) when a new luminosity regime will permit to accumulate more than 300 1/fb of data from pp collisions by the end of 2023. The electromagnetic calorimeter information is a key element for the Level-1 trigger and will require a complete redesign in order to cope with the increased pile-up. Moreover, in 2026 a new upgrade of the LHC complex will start the era of high luminosity (Fase-II) where more than 200 simultaneous collisions per bunch crossing will be a challenge for all subsystems performance, requiring new approaches to provide very fast timing information in order to preserve the performance in extreme phase spaces. In this talk, we will discuss some of the activities underway for Phase-I and the prospects for the Phase-II.
The high-energy proton-proton collisions at the LHC can be used to investigate the electromagnetic interactions as a photon collider. Such production mechanism considers the long-range interactions via photon fusion, which allowed the CMS Collaboration to study the two-photon production of dileptons and dibosons at 7 and 8 TeV. In particular, the kinematics accessible by the CMS detector also provides the means to investigate high-order photon interactions, such that the light by light scattering in heavy-ion collisions. As a complementary production mechanism, the photon-proton interaction is an interesting way to study the elastic and nonelastic production of resonances, like vector mesons and vector bosons. In this case, the diffractive interaction by Pomeron exchange is employed to describe the colorless interaction between the photon and the colliding proton. The latest results on photo-production of resonances at CMS are reported, presenting the estimations for low- and high-mass channels in proton-proton and proton-Lead collisions. These results include the comparison of the estimated photon-proton cross section to the results from other experiments.
The research activities developed by the heavy ions group of the São Paulo Research and Analysis Center (SPRACE) during the recent years in high energy collisions will be reported and discussed.
A evolução da matéria nuclear fortemente interagente resultante de colisões nucleares de íons pesados em energias relativísticas é descrita em uma sequência de etapas. Uma importante etapa é a descrição da matéria através de hidrodinâmica relativística dissipativa, que parece ser válida no intervalo de tempo compreendido entre cerca de 1fm/c a 10 fm/c após a colisão. O código MUSIC, capaz de efetuar a simulação de hidrodinâmica relativística dissipativa em 3+1 dimensões, incluindo correções de viscosidade shear e bulk em segunda ordem, é o estado da arte da modelagem numérica dessa etapa da evolução do sistema.
Desenvolvemos uma suíte de códigos capaz de integrar as várias etapas das simulações de colisões de íons pesados relativísticos, incluindo a geração de condições iniciais através do modelo TRENTo, a evolução hidrodinâmica através do software MUSIC, o processo de particlização do sistema utilizando um sampler e a subsequente evolução do sistema hadrônico resultante através do UrQMD.
Realizamos um estudo da sensibilidade dos observáveis finais aos diferentes processos físicos implementados numericamente e efetuamos uma comparação direta a dados experimentais.
Recent studies of high-multiplicity proton-proton (pp) collisions at the LHC have shown that, in these systems, relative resonance production is reduced with respect to minimum-bias interactions. In this work, we present a phenomenological study that shows how multi-parton interactions and color reconnection (CR) affect res- onance yields in the PYTHIA8 event generator. It is observed that CR leads to a systematic decrease of relative resonance yields, reducing integrated yield ratios such as K*/K and ρ0/π in high-multiplicity pp collisions. In-depth studies indi- cate that the underlying mechanism causing this effect is that CR leads to shorter, less energetic strings whose fragmentation is less likely to produce more massive hadrons for a given quark content. These observations suggest an alternate expla- nation for resonance suppression, which is usually explained as being a consequence of the rescattering of resonance decay daughters in a high-density hadronic medium. Based on Phys. Rev. D 97, 036010 (2018).
Quarks pesados (charm e beauty) são produzidos nos estágios iniciais das colisões devido às suas massas grandes. Isso permite que eles sofram efeitos da evolução completa do sistema, interagindo com o Plasma Quark-Gluon (QGP) criado em colisões de íons pesados (Pb-Pb) de alta energia. Em colisões de p-Pb, os efeitos da matéria nuclear fria (cold nuclear matter) podem modificar a produção dos quarks pesados. O estudo desse sistema serve como medida de referência para as medições de Pb-Pb, contributindo para o entedimento de propriedades QGP. Colisões entre prótons são também usadas como refência para os estudos em Pb-Pb e teste de cálculos de QCP perturbativa. No LHC, medidas em colisões pp e p-Pb de alta multiplicidade obtiveram resultados inesperados para quarks leves, como a presença de fluxo elípico e o aumento da estranheza, tornando estes sistemas ainda mais interessantes para a física nuclear de altas energias. Nessa apresentação serão apresentados os resultados mais recentes das análises do grupo HEPIC@IFUSP, parte do experimento ALICE. O grupo contribui com estudos sobre quarks pesados em colisões pp, p-Pb e Pb-Pb.
A strongly interacting state of matter known as the Quark-Gluon Plasma (QGP) is formed in the high temperature and energy density conditions reached in ultra-relativistic heavy-ion collisions. Historically, one of the signatures of the formation of such a system was the enhanced production of strange and multi-strange hadrons with respect to non-strange. The ALICE detector is ideally suited to study identified particle production rates. The excellent tracking and particle identification capabilities allow the reconstruction of multi-strange baryons (Ξ−, Ξ ̄+, Ω− and Ω ̄+) via their weak decay channels over a large range in transverse momentum (pT). In this work, we report on the pT spectra and total yield of such hadrons at central rapidity in several centrality classes as measured by ALICE for Pb-Pb collisions at the energy of √sNN = 5.02 TeV and for Xe-Xe collisions at √sNN = 5.44 TeV. The yields are normalized by the corresponding measurement of pion production in the same centrality class in order to study the enhancement of multi-strange hadrons. Comparison of hyperon-to-pion ratio between different systems, such as pp, p-Pb, Xe-Xe and Pb-Pb collisions shows that production of multi-strange baryons relative to pions follows a continuously increasing trend from low multiplicity pp to central AA collisions.
Serão apresentados os recursos computacionais e infraestrutura física e lógica do cluster SAMPA e sua participação no WLCG.
O CERN(Centro Europeu de Pequisas Nucleares) tem usado, nos últimos anos, o grid computacional como fonte de recursos de processamento e armazenamento de dados. Um recurso no grid computacional pode ser, desde um PC (Personal Computer), até um "grande" computador, como um HPC(High Performance Computer).
Há ainda uma gande demanda por processamento dos dados gerados pelo LHC(Large Hardron Collider) e na geração de simulações (Monte Carlo) com objetivo de se validar modelos probabilísticos. Neste sentido, alguns centros de pesquisas, dentro da colaboração com o CERN, tem colocado "à disposição" da grid seus HPCs para tal processamento.
Apesar da altíssima capacidade de processamento dos HPCs, há de se "preparar" tais máquinas para receber e enviar jobs e dados.
O presente trabalho apresenta um estudo de caso no uso de HPCs por um dos experimentos do CERN, o LHCb (Lage Hardron Collider Beauty). Inicialmente, apresentam-se os requisitos necessários para a integração de um HPC ao LHCb. Posteriormente, apresentam-se alguns exemplos de uso de HPCs pelo LHCb. Finalmente, mostra-se a experiência vivida na preparação da maior máquina da América Latina, o Santos Dumont (do LNCC - Laboratório Nacional de Computação Científica), no sentido de ser usada pelo LHCb.
PPS (Precision Proton Spectrometer) is a detector localized around 200 m from the colliding point at CMS, with the purpose of detecting the scattered protons.
It is composed of different sensitive detectors, tracking detectors, such as silicon strips and pixels, and detectors for time of flight measurement like diamond and ultra fast silicon detectors.
The CMS Rio group is working in the PPS offline software since the Technical Design Report, when a first version of the Fast Simulation was implemented.
The main contributions in the software are in the elaboration of the Fast Simulation, the transport of the simulated protons from the interaction point to the entrance of the PPS detectors, the integration of the Full Simulation into CMSSW, code implementation for detector Database access and participation in the Pixel simulation code.
O Calorímetro de Telhas (TileCal) é o principal calorímetro hadrônico do experimento ATLAS no LHC. Este sistema de calorimetria possui aproximadamente 10.000 canais de leitura que amostram a energia depositada pelas interações entre as partículas e o componente passivo do calorímetro. O sinal analógico produzido pela eletrônica de leitura é digitalizado numa taxa de 40 MHz e uma janela de sete amostras temporais são utilizadas para representar o sinal. A tarefa de estimação da energia se resume em estimar a amplitude do sinal digitalizado presente na janela de leitura. Entretanto, devido à operação em condições de alta luminosidade, os canais de leitura observam o efeito de empilhamento de sinais, que distorce o sinal. O método atualmente empregado pelo TileCal para a estimação da energia é o Filtro Ótimo (OF) e se baseia na soma ponderada entre as amostras temporais recebidas e os coeficientes do filtro. O procedimento de otimização assume um modelo determinístico para o sinal de interesse e utiliza a matriz de covariância do ruído eletrônico de cada canal para minimizar a contribuição do ruído na medida da amplitude do sinal. Entretanto, a obtenção de um modelo confiável para o empilhamento de sinais, com uma quantidade de parâmetros suficientemente pequena, permitindo sua estimação a partir das amostras, não é viável. Desta forma, para o cenário de alta luminosidade do LHC previsto para a Fase II, métodos alternativos estão sendo testados. Dentre tais métodos, o Filtro de Wiener, proposto pela colaboração ATLAS/Brazil, apresenta uma abordagem interessante uma vez que um modelo para a representação dos dados nao é necessário. Esta apresentação visa apresentar e avaliar os métodos atualmente disponíveis para operação online e offline no TileCal em condições severas de empilhamento de sinais, no que tange a eficiência de estimação da energia e qualidade de reconstrução do sinal estimado. Conjuntos de dados de Monte Carlo foram utilizados para projetar e avaliar a eficiência dos métodos de estimação de energia em condições de alta luminosidade. Os resultados mostram que a eficiência da versão do Filtro de Wiener supera o método atualmente utilizado para estimação da energia nas células de alta ocupância do TileCal.
Uma das linhas de pesquisa do HEPIC@USP dedica-se ao desenvolvimento de instrumentação para Física de Altas Energias e ao estudo de possíveis aplicações em outras áreas. Essa atividade na instrumentação abrange o estudo de detectores a gás baseados em microestruturas e o desenvolvimento de electrónica dedicada a este tipo de detectores para uso em grandes experimentos. Para além disso, são exploradas aplicações em outras áreas da Física, tais como a imagem de raios X e a detecção de nêutrons.
Na electrónica dedicada, o HEPIC@USP, em parceria com a Escola Politécnica, desenvolveu um ASIC, chamado SAMPA, a ser usado no experimento ALICE para actualizar o sistema de leitura da câmera de projeção temporal (TPC) e do traceador frontal de muons (MCH), de modo a torná-los compatíveis com taxa de eventos aumentada para até 50KHz em colisões PbPb, planejada para o Run 3 do LHC, no CERN. Nesta apresentação será descrita a versão final deste ASIC, que foi extensivamente testado sob a coordenação do nosso grupo, e serão dados alguns detalhes do seu desempenho. Serão também mostrados alguns aspectos da pesquisa realizada em detectores, onde serão mostrados alguns resultados obtidos no estudo da sua Física, os progressos na construção de um sistema de imagem de fluorescência de raios X e as soluções para a detecção de nêutrons com detectores gasosos usando filmes de carbeto de boro enriquecido.
A integração do SAMPA nos detectores em desenvolvimento no HEPIC@USP é um plano para um futuro próximo, e os trabalhos em curso com esse objetivo serão também descritos.
Finalmente serão também mostrados resultados obtidos com microestruturas do tipo Thick-Gas Electron Multiplier desenhadas no nosso grupo e produzidas em São Paulo, com recurso à indústria.
Durante os primeiros anos de operação do LHC (do inglês Large Hardron Collider), o trigger online de muons do experimento ATLAS operou com uma grande quantidade de ruído de fundo na sua região da tampa devido a prótons de baixo momento que emergiam dos magnetos toroidais e da blindagem do feixe do LHC, diminuindo sua eficiência. Para reduzir a quantidade de falsos muons durante os runs 2 e 3 do LHC, foi proposta a utilização do sinal da camada mais externa do calorímetro hadrônico de telhas (TileCal) em coincidência com as câmaras de muons. Os estudos e o desenvolvimento do sistema TileMuon iniciaram-se ao final de 2013 e apontaram uma redução no ruído de fundo maior que 80% na região do barril estendido do TileCal, mantendo uma eficiência de detecção acima de 97%. Atualmente o TileMuon encontra-se no início da operação após o comissionamento realizado ao longo do ano passado. Este trabalho descreve sucintamente o sistema TileMuon e apresenta os resultados obtidos durante o comissionamento e início de sua operação no ATLAS.
In 2024 the Large Hadron Collider will enter a long shutdown to allow its upgrade (High-Luminosity LHC), such that it will later be able to run in a maximum instantaneous luminosity of 5 to 7x10^(34) cm^(-2) s^(-1).
While this represents an increase in the rate of interesting data generated at the LHC experiments, the resulting increase in the number of pile-up interactions and radiation will require significant upgrades to the CMS experiment, including a complete replacement of the inner and outer silicon trackers. The new outer tracker will reconstruct tracks at the full collision rate (40 MHz) and provide them to the Level 1 (L1) trigger, to improve its event selection performance.
The Data Trigger and Control (DTC) cards interface read-out electronics inside the CMS tracker sensor modules to the rest of the experiment, such as the track finder, data acquisition (DAQ) and L1 trigger systems. All the connections are established through high-speed serial protocols over optical fibers.
The extent of the tasks assigned to the DTC’s require these components to be highly reliable and, at the same time, highly performant. SPRACE is developing parts of the DTC firmware, contributing to the specifications for the card hardware and will financially contribute to the production of the cards.
Durante a operação da Run 2, o ATLAS previu a necessidade de uma grande melhoria de seu trigger para a operação no ano de 2017. Esse trabalho irá descrever as intervenções realizadas para a filtragem de elétrons e múons para conter o aumento de eventos processados ao longo de sua cadeia de filtragem e manter a eficiência de detecção apesar do aumento de empilhamento.
A intervenção no trigger de elétron atuou no estágio inicial do HLT, realizado apenas com informação de calorimetria. A extração da informação do chuveiro é realizada através de soma em anéis concêntricos de energia ao baricentro, aproximado pela célula mais energética. Essa abordagem permite explorar o desenvolvimento aproximadamente cônico do chuveiro enquanto fornecer compressão da informação quando em relação a representação no nível de células. Para a tomada de decisão, emprega-se um ensemble de redes neurais específicos por regiões de energia e posição de incidência da partícula, o que permite aliviar distorções causadas por essas variáveis na representação dos anéis, alimentados as redes. No caso do trigger de múons, a intervenção atingiu o primeiro nível de filtragem, contando com uma implementação de hardware específico para a fusão da informação de calorimetria com os traços obtidos no Espectrômetro de Múons. Para tomada de decisão, cortes em energia são aplicados de forma a eliminar falsos múons e reduzir, assim, o processamento no segundo nível.
Os resultados mostram que a intervenção no trigger de elétrons operou com eficiência praticamente inalterada em relação ao método anterior, porém forneceu uma redução de processamento em 25% na parcela dedicada a coleta de elétrons e fótons, enquanto uma redução de 200 ms para 100 ms na latência da cadeia principal de menor energia para a coleta de elétrons. Para o primeiro nível de filtragem de múons a estratégia combinando as informações do calorímetro e o espectrômetro de múons obteve uma redução no nível de processamento em 10% para a mesma eficiência de detecção no final do sistema de filtragem.
The CMS-TOTEM PPS (Precision Proton Spectrometer) detector system consists of silicon tracking stations as well as timing detectors to measure both the position and direction of protons and their time-of-flight with high precision. They are located at around 200 m from the interaction point in the very forward region on both sides of the CMS experiment. PPS is built to study Central Exclusive Production (CEP) in proton-proton collisions at LHC, including the photon-photon production of W and Z boson pairs, high-mass diphoton and dilepton production, high-$p_T$ jet production, as well as searches for anomalous couplings and new resonances.
The PPS detector has taken data at high luminosity while fully integrated to the CMS data acquisition system. The total data collected correspond to around 55 ${\rm fb}^{-1}$ during its first two years of operation. In this presentation the PPS operation, commissioning and performance are discussed.
For the first time, exclusive dilepton production at high masses has been observed in the CMS detector while one or two outgoing protons are measured in PPS using around 10 ${\rm fb}^{-1}$ of data accumulated in 2016 during high-luminosity LHC operation. These first results show a good understanding, calibration and alignment of the new PPS detectors. Preliminary results on the search for high-mass exclusive diphoton production and prospects for future analyses are also presented.
The CMS and TOTEM experiments have jointly collected data from pp collisions at $\sqrt{s}$ = 13 TeV in a special LHC run at the end of 2015. We discuss a preliminary analysis concerning the possibility of observation of diffractive open charm mesons in the channels $D^{+*}\rightarrow D^{0} + \pi^{+} \rightarrow K^{+} + \pi^{-} + \pi^{+}$ (c.c) and $D^{0} \rightarrow K^{+} + \pi^{-}$ (c.c) taking advantage of TOTEM’s proton tagging capability. The analysis is based on the reconstruction of the $D^{0}$ and $D^{+}$ in the central detector (CMS), combined with the proton reconstructed by the forward detector (TOTEM), in order to select central diffractive events. The results are compared with a Monte Carlo simulation that reproduces the conditions the data were collected.
One of the most important approaches to the possibility of new physics Beyond the Standard Model is the use of Effective Field Theory (EFT) to describe higher energy theoretical models at lower energies, like that of the LHC. In this type of scenario, it is possible to have additional couplings to describe gauge bosons self-interactions, such as anomalous Triple (aTGC) and Quartic Gauge Couplings (aQGC). These anomalous gauge couplings can appear, for example, as an excess in the $\gamma\gamma\rightarrow WW$ process.
The CMS subdetector PPS (Precision Proton Spectrometer) consists of detector stations at ~200m on both sides of the interaction point, allowing to detect protons that remained intact after losing a fraction of their energy in the interaction, that measure the proton's position and the time-of-flight. PPS is an extremely important tool to investigate Central Exclusive Production (CEP) with high levels of pileup collisions. In CEP processes, we have $ p + p \rightarrow p \oplus X \oplus p$, where $\oplus$ means rapidity gaps, $X$ is the central final state (that could be $WW$, $ZZ$, di-jets...) and we also have two protons in the final state.
A prospect on the CEP of $WW$ for LHC RUN II will be presented, considering aQGC in the EFT dimension-6 scenario. The chosen channel is the semileptonic one, which is characterized by the presence of a muon, missing transverse energy, and a single large jet in the central CMS detector; and two scattered protons tagged by PPS in the final state. The signal samples are generated by the FPMC generator.
This analysis is set in the context of the Supersymmetric Compressed Scenarios, characterized by a very high compression in the mass spectrum of the gauginos and higgsinos below the TeV scale, while the scalar superpartners are out of reach of the LHC experiment. We use CMS Run II data with a center-of-mass energy of $\sqrt{s}=13\, \mathrm{TeV}$ to perform a search on a promising channel characterized by the production of two gluinos, each one decaying into a quark, anti-quark and neutralino 1. The signal leads to a hard to detect signature, characterized by the presence of a moderate missing transverse energy ($E_{T}^{\mathrm{miss}}$), secondary vertices and low energy jets. We thus require a hard jet from initial state radiation to 'tag' the event. We use a $E_{T}^{\mathrm{miss}}$ trigger to select the events, which allows us to typically select signal events that have at least one jet from the initial state radiation. In addition, we use information from jets and vertices (primary and secondary) reconstructed by the CMS to select events with sufficient information to identify the decay of at least one of the gluinos.
The São Paulo Research and Analysis Center (SPRACE) is actively working on the analyses of the data collected by CMS. One of our main interest is the search for physics beyond standard model. In this talk we will show the efforts of the SPRACE group on the search for new diboson resonances at the CMS experiment.
With the discovery of the H boson by ATLAS and CMS collaborations in 2012, science has started to shed light on the breaking of the electroweak symmetry. If the EWSB has a more complex cause than the Brout-Englert-Higgs mechanism present in the standard model, it stands to reason that new phenomena would appear in the production of weak bosons. A particularly enticing scenario is the possibility of new resonances decaying to pairs of W, Z and H bosons. We will present our efforts on the search for these diboson resonances, including results from our latest paper with 2016 pp collisions data.
The São Paulo Research and Analysis Center (SPRACE) is actively working on the analyses of the data collected by CMS. One of our main interest is the search for physics beyond standard model. In this talk we will show the efforts of the SPRACE group on the search for Dark Matter
particles at the CMS experiment.
Experimental evidences of the existence of Dark Matter have come only from gravitational effects. Many theoretical proposals to explain its composition involve extensions of the standard model that predict the existence of new particles. However, the Dark Matter experimental
evidences does not lead necessary to signals at the LHC which makes the search very intricate. We will present the CMS efforts on the search for Dark Matter, especially on the monojet channel.
The development of the conditions database for the CMS PPS (Precision Proton Spectrometer) subdetector -- which started on February 2016-- has been an effort taken mainly by members of the CMS/UERJ group.
The task required first gathering the information on the needs of the subsystem, design, code development and integration with CMSSW, as well as interfaces with online DB through DAQ applications and other tools. The DB also needs maintenance, for example to load new calibration constants or information on new detector packages.
In this talk we will present the challenges and successes of this endeavour.
The HEP agenda of exploring new physics beyond the standard model requires the identification of rare signals immerse in huge backgrounds. Substantially increased levels of pileup make this identification a great challenge. Neural Networks (NN) and Boosted Decision Trees (BDT) have been used in HEP for quite a long time, for instance in particle identification algorithms. The Deep Neural Networks (DNN) revolution has made significant impact on HEP and it is particularly promising when there is a large amount of data and features, as well as symmetries and complex nonlinear dependencies between inputs and outputs. Nowadays, there are a lot of R&D in this area, particularly in speeding up computationally intensive pieces of the workflows, enhancing physics reach by better classifying the events, improving data compression by learning and retaining only the most relevant ones, anomaly detection for detector and computing operations as well as simulation. In this talk we intend to give a brief overview on how Machine Learning is being used in the HEP field as well as show some initiatives being conducted by the SPRACE project.
A Rede Nacional de Ensino e Pesquisa (RNP), que fornece desde 1992 conectividade nacional e internacional para a comunidade nacional de educação e pesquisa, está migrando para uma nova geração de rede nacional e conexões internacionais, para atender os desafios do crescimento de demanda dos seus usuários, que já esgota a geração anterior adotada em 2011. Novas abordagens importantes incluem a busca de capacidade escalável de infraestrutura de rede, tanto nacional como internacional, bem como a diversificação da conectividade internacional, reduzindo a latência da comunicação.
Será apresentado alguns dos serviços da Rede Nacional de Ensino e Pesquisa (RNP) para o aumento do desempenho de transferências de grande volume de dados, bem como uma iniciativa para a modelagem de novos serviços para e-ciência.
O experimento Modulation é um experimento dedicado a medição estável de longo prazo das emissões gama resultantes de decaimentos β, com a capacidade de produzir dados com alta qualidade e precisão, possibilitando a identificação de possíveis influências sistemáticas. Diferentes isótopos radioativos são monitorados por trinta e dois detectores de NaI(Tl) em quatro configurações em diferentes países e continentes.
The study of the spectrum of atomic hydrogen has played a central role in the history of quantum mechanics. The comparison between theory and experiment has found in the hydrogen atom your best companion. As the simplest atomic system, it allowed the comparisons to reach an unprecedented accuracy. Examples of the power of comparison between theory and experiments is the capability of quantum electrodynamics to precisely predict transition frequencies, and modern measurements of the 1S-2S transition (in atomic hydrogen) to a precision of a few parts in 1015.
Over the past few years has been possible to study the antimatter equivalent of the hydrogen – the antihydrogen. The motivation behind the study of the antimatter is try to understand the unbalanced amount of matter and antimatter in our Universe. The Standard Model predicts that should have been equal amounts of matter and antimatter in the primordial Universe, but today ours Universe is observed to be made almost entirely of ordinary matter. This difference motivates the search of a small asymmetry in the laws of physics that govern the two types of matter. In this case, the CPT theorem requires that hydrogen and the antihydrogen spectrum should be exactly the same.
In this work the ALPHA collaboration reports the more precise measurement performed on anti-atom. Here we characterize one of the hyperfine components of this transition using magnetically trapped atoms of antihydrogen and compare it to model calculations for hydrogen in our apparatus. This measurement is consistent with charge–parity–time invariance at a relative precision of the first observation of 2×10−12 —two orders of magnitude more precise than the previous determination—corresponding to an absolute energy sensitivity of 2 × 10−20 GeV.
O gradativo aumento de luminosidade no LHC tem exigido métodos mais eficientes para a manutenção da capacidade de seleção online e offline. Nesse sentido, o ATLAS adotou o algoritmo NeuralRinger, que possibilitou aliviar a demanda por processamento durante a filtragem online a partir de 2017. Essa estratégia, dedicada à seleção de elétrons, emprega outra representação da informação de calorimetria, baseada em 100 anéis concêntricos de energia ao baricentro de energia que é aproximado, na filtragem online, pela célula mais energética. A tomada de decisão emprega uma assembleia de redes neurais específicas por regiões de energia e posição da partícula incidente na região de precisão do experimento, o que possibilita limitar o impacto da resposta do detector no perfil dos anéis.
Este trabalho avalia a atuação do NeuralRinger para a seleção offline de elétrons no experimento ATLAS. Desenvolvem-se aprimoramentos a fim de estender o método para atingir sua eficiência máxima nesse ambiente. A necessidade de explorar toda a informação discriminante proveniente do Sistema de Calorimetria e Detector Interno é atacada como um problema de fusão de dados. Nesse âmbito, são utilizadas, adicionalmente aos anéis, as representações tradicionais em grandezas físicas para o treinamento de redes especialistas que, posteriormente, alimentam, através dos neurônios da camada escondida, a entrada de outra rede neural responsável pela fusão da informação e tomada de decisão. É realizada a busca por um espaço latente mais discriminante a partir da representação dos anéis empregando pré-processamento estatístico via Análise de Componentes Independentes (ICA), conhecimento especialista por intermédio de um mapeamento não-linear com dois parâmetros otimizados por busca em grade (Ringer-Rp) e compactação não-linear cega via Stacked AutoEncoder. Como a estatística disponível para o ajuste dos modelos é extremamente volumosa, foi desenvolvida uma estratégia própria para reduzir o processamento necessário no desenvolvimento dos modelos avaliados enquanto mantendo as amostras relevantes para o ajuste.
Compararam-se as propostas de extensão do NeuralRinger com a referência em atuação no ambiente offline, baseada em verossimilhança nas grandezas tradicionais, através de amostras de provas obtidas pelo método T&P para o decaimento Z→ee, e seu respectivo ruído de fundo, em colisões próton-próton ocorridas em 2016 e simulações equivalentes. Quando apenas aplicando a fusão via redes especialistas, observou-se uma redução na taxa de falsos elétrons de 2,54% para 1,13% em valor central e com incerteza de validação cruzada desprezível para ambos operando com a mesma taxa de detecção de elétrons em dados de simulação.
The surface detector of the Pierre Auger Observatory consists of 1660 water-Cherenkov detectors (WCD). When detecting extensive air showers with energy larger than 3 x 10^19 eV is present a saturation for at least the detector closer to the shower core. In this work we present an analysis of the performance of the engineering array which consists of ten WCD with a fourth photomultiplier tube with a small photocathode area. We verified that during the analisis period the photomultiplier tubes presented a very robust and stable behaviour. The calibration of the small photomultiplier tubes was performed so that their signals can be converted from hardware units to a physical unit which reflects the particle density that crossed the station, such unit is the VEM (vertical equivalent muon) defined as the average charge registered in the standard photomultiplier tubes when a vertical central-going muon cross a station. A dependency of the calibration with long-term variations of temperature was discovered. Finally, we showed that the implementation of a small photomultiplier tube in a station extends its dynamic range by a factor of 25 times.
The Pierre Auger Observatory, located near the town of Malargue (Argentina), is the largest facility for studying cosmic rays above 10^17 eV. One of the main achievement already established is the observation of the suppression in the energy spectrum around 4×10^19 eV compatible with the GZK cutoff. However the measurement of the energy spectrum alone is not enough to clarify the origin of such a feature. Indeed the mass composition measurements suggest the possibility of a different mechanism to explain the suppression region, not due to a propagation effect of cosmic rays but to the maximum energy achievable in the astrophysical sources. To assess this complex astrophysical scenario, whose phenomenology is still far from being understood, the Pierre Auger Observatory has recently begun a dedicated program to update its detector capabilities. The upgrade proposal is based on improved mass composition determination using the water-Cherenkov detectors of the Observatory in combination with surface scintillator detectors on top of them.
In this contribution, we present the RPC (Resistive Plate Chamber) hodoscope developed at the CBPF (Rio de Janeiro) in collaboration with LIP (Lisboa) for testing/debugging the scintillator detectors of the Observatory. A prototype of the hodoscope has already been placed in Malargue and used for a preliminary tests. Different hodoscope configurations are under discussion for optimizing the test procedure.
Ultra-high-energy extraterrestrial neutrinos can be used to study energetic processes taking place in the vicinity of astrophysical objects and in the intergalactic medium. They are useful to search for signs of Beyond the Standard Model physics, since energies of $E > 10^{17}$ eV cannot be attained by current particle accelerators.
The Giant Radio Array for Neutrino Detection (GRAND) will detect extensive air showers induced by the decay of tau leptons due to the interaction of high-energy neutrinos with the surface of the Earth. It consists of an array of antennas covering an area of 200000 km$^2$. The projected integrated 10-year all-flavour sensitivity is $\sim 4 \times 10^{-11} \; \mathrm{GeV} \, \mathrm{cm}^{-2} \, \mathrm{s}^{-1}$ above $4 \times 10^{17}$ eV, with sub-degree angular resolution. The detection of cosmogenic neutrinos with GRAND is guaranteed. Moreover, sources of neutrinos produced in ultra-high-energy cosmic-ray accelerators are also expected to be detected. In this talk I will present the preliminary design and the physics capabilities of the experiment, as well as the status of the ongoing efforts.
O grupo de Física do Charm do LHCb-Rio, formado em 2008
por pesquisadores da PUC, UFRJ e CBPF, tem como linhas
de pesquisa o estudo da violação de CP e de interações
hadrônicas a baixas energias, usando para tal os
decaimentos de mésons D+ e Ds+ em três mésons leves carregados.
Apresentamos os resultados já obtidos pelo grupo bem como
os estudos em andamento e projetos futuros.
O decaimento do m ́eson B carregado em trˆes ha ́drons (p ́ıons ou ka ́ons) no estado final oferece um ́otimo ambiente para o estudo do fenoˆmeno de viola ̧ca ̃o da simetria de Carga-Paridade (ACP ). Al ́em de prover informa ̧co ̃es para uma melhor compreens ̃ao da dinaˆmica dos decaimentos hadrˆonicos do m ́eson B. Dentro deste contexto, a apresenta ̧c ̃ao ira ́ focar nos decaimentos B±→K±π+π−, B±→K±K+K−, B±→π±π+π− e B±→π±K+K−.
Medidas de ACP global publicadas pela colabora ̧ca ̃o [Phys. Rev. D90, 112004 (2014)] com os dados adquiridos nos anos de 2011 e 2012, apresen- taram a primeira evidˆencia de viola ̧ca ̃o de CP nestes canais. Al ́em de regio ̃es bem localizadas no espac ̧o de fase desses decaimentos, em que a assimetria se mostrou muito maior. Atualmente, al ́em de realizar um ugrade nestas medi- das com os dados adquiridos em 2015 e 2016, uma ana ́lise de amplitudes dos espa ̧cos de fase desses decaimentos vem sendo realizada. Uma forte colab- ora ̧ca ̃o para desenvolver a teoria por tra ́s desses resultados vem se mostrando necessa ́ria.
The analysis of charmless decays $B^{\pm}\rightarrow
h_1^{\pm}h_2^{+}h_3^{-}$, where $h_i$ are pions or kaons, collected by
LHCb in Run I, show strong evidence for CP asymmetries in the
three-body phase space. We are now analyzing data collected in Run II
(2015+2016) and will combine the results with the ones from Run I. After
a loose pre-selection, we use a multivariate method (MVA) to improve the
signal significance. We show here the comparison of results with
different inputs and different MVA methods, particularly boosted
decision trees (BDT) and artificial neural networks (MLP). Our final
choice, for the good performance and simplicity, is BDT with a reduced
set of input variables, as compared to Run I selection.
O GooFit, um framework para realizar ajustes pelo método de máxima verossimilhança utilizando GPUs, nos permite determinar amplitudes em decaimentos de três corpos, como o Ds+→ π- π+ π+, independentemente de modelos. A amplitude a ser determinada é representada por uma função complexa genérica, definida em pontos fixos no espectro de massa invariante por pares de números reais, que são os parâmetros do ajuste. O valor da amplitude em qualquer ponto do espectro é determinado por interpolação via spline cúbica. Esse método de análise é chamado de MIPWA - Model Independent Partial Wave Analysis.
O método é validado com simulações usando o modelo isobárico – soma coerente de amplitudes dependentes do spin. Conhecendo a priori a forma funcional da amplitude a ser determinada, a amostra simulada é ajustada pelo método MIPWA. O resultado do ajuste é comparado à forma funcional utilizada na simulação. Uma comparação entre o desempenho do algoritmo de ajuste realizados por GPUs e CPUs é apresentada.
Coherent elastic neutrino-nucleus scattering (CEnNS) is an interaction process that was predicted by the Standard Model but only recently was observed. Although its cross-section is coherently enhanced at low neutrino energies, the resulting keV-range nuclear recoil energies are below the thresholds of most detectors. The detection of coherent scattering with different experimental techniques is of significant interest, since it can act as a probe for physics beyond the Standard Model and may also be useful to monitor nuclear power plants. The measurement of CEnNS will increase our knowledge on a limiting background for future dark matter searches and is useful in understanding the supernovae processes.
The Coherent Neutrino-Nucleus Interaction Experiment (CONNIE) uses fully depleted high-resistivity CCDs (charge coupled devices) as particle detectors with the goal of measuring for the first time CEnNS of reactor antineutrinos with silicon nuclei. The CONNIE detector has been operating since 2014 at a distance of 30 m from the core of the Angra II 3.8 GW nuclear reactor in Angra dos Reis, RJ, Brazil. The detector has demonstrated stable operation, low noise of less than 2e- RMS, and low background contamination levels achieved using passive shielding. In 2016 the experiment was upgraded, increasing its active mass from 4 g of silicon to 80 g, and implementing a number of improvements on the control and operations. We will report on the performance of the CONNIE detector, preliminary results from the current data, and future perspectives for detecting CEnNS.
The mandate of the diversity office (DO) of CERN and within the LHC experiments is to promote the diversity of gender, geographical regions and ethnicities, orientation, and minorities in general. The CMS DO was established in August 2017.
Activities on international women's day to bring awareness to female colleagues and participating in the first LGBTQ in STEM day are some of the actions taken by the DO.
The DO also monitors the diversity dataset within the collaboration with periodic analyses of the distribution of age, gender and region of the members, and contributes in avoiding instances of harassment or discrimination of collaboration members (micro-aggressions or biased behaviour during meetings, bad-tasted humour in talks given on behalf of the collaboration, etc.) by working on establishing a code of conduct and channels for safe reporting of misconduct at conferences, for example.
A Organização Europeia para a Pesquisa Nuclear (CERN) mantém o programa “Escola de Professores no CERN em Língua Portuguesa", destinado a professores de escolas
de ensino médio dos seus diversos países membros. Durante estes eventos são desenvolvidas aulas sobre Física de Partículas e áreas associadas, sessões experimentais e visitas aos laboratórios do CERN.
Em 2009, como uma ampliação da cooperação do CERN com o Laboratório de Instrumentação e Física Experimental de Partículas (LIP), de Portugal, e resultado de negociações com pesquisadores brasileiros do CBPF e integrantes da diretoria da Sociedade Brasileira de Física, através de sua Secretaria para Assuntos de Ensino, foi aberta a possibilidade de participação de professores brasileiros no programa que, no Brasil, assumiu o nome de Escola de Física CERN.
Desde então, e até o ano de 2017, a organização da participação dos professores brasileiros foi realizada pela Sociedade Brasileira de Física (SBF). A partir deste ano o evento passa a ser organizado pelo São Paulo Research and Analysis Center (SPRACE), em parceria com o Instituto Principia, a Sociedade Brasileira de Física e a Rede Nacional de Física de Altas Energias (RENAFAE).
É relevante salientar que tal Programa promove a inserção de Física Moderna e
Contemporânea nos currículos escolares e possibilita o aprofundamento e o desenvolvimento profissional de professores de todas as regiões brasileiras, tendo, ao longo dos anos contemplado docentes de quase todas as Unidades da Federação
Neste ano, acontecerá no período de 2 a 8 de setembro, ao lado de professores do Ensino Médio portugueses e africanos. Além da participação na Escola de Professores no CERN em Língua Portuguesa, em Genebra, os professores brasileiros também participarão de palestra e visita ao LIP, em Lisboa, entre os dias 29 de agosto e 01 de setembro, preparando-se para a Escola e de visita aos Museu e Casa do Einstein, em Berna, no dia 09 de setembro.
Beam-Line-for-Schools consiste em programa anual de divulgação cientifica do CERN no qual equipes formadas por estudantes de nível-médio são estimuladas a submeter propostas criativas para a realização de medidas utilizando o feixe PS e de um conjunto de detectores do CERN. As 2 melhores propostas do mundo são premiadas com a execução das propostas por 2 semanas. Motivado por essa iniciativa desde 2016 alguns grupos brasileiros vem submetendo propostas. Vou apresentar a experiência que tivemos no CBPF e uma proposta de sincronizar os esforços no sentido de agregar mais pessoas e estimular a cultura da instrumentação em física de altas energias.
For many years, it is well known that cosmic rays detection can be used as a valuable tool for discussing particle physics with high school students. An example of this is the operation of spark and cloud chambers in science museums, the Quarknet program in the US and, more recently, the Cosmic Pi and Cosmic Watch projects, just to mention a few. In Brazil, despite some proposals in the past, there is no ongoing widespread project to bring the cosmic ray detection topic in outreach activities. In this talk, we will present an initiative being coordinate at the Instituto de Fisica da Universidade de Sao Paulo to equip a network of schools with very low-cost cosmic ray detectors whose project was tailored to adapt our schools' resources and fulfill our pedagogical needs.
O Uniso Ciência é um projeto de divulgação científica da Universidade de Sorocaba, com foco em mídias offline e online, voltado tanto para o público regional (fase 1: Sorocaba e 17 cidades da região), como internacional (fase 2: instituições parceiras em todo o mundo), compreendendo um tablóide trimestral, uma revista bilíngue semestral e um portal online. O projeto nasceu de uma percepção recorrente no meio acadêmico: programas de pós-graduação detêm conhecimento especializado, com aplicabilidades diretas e indiretas à vida cotidiana das comunidades, contudo estão disponíveis apenas a uma pequena parcela da população, versada em jargões específicos e suficientemente creditada para frequentar ambientes acadêmicos restritos. O Uniso Ciência tem como objetivo contribuir para mudar essa percepção de que a pesquisa acadêmica é hermética, desassociada da vida real da comunidade. Para atingir esse objetivo, publica reportagens jornalísticas baseadas em dissertações e teses dos programas de pós-graduação da Uniso: Educação (Mestrado e Doutorado), Comunicação e Cultura (Mestrado), Ciências Farmacêuticas (Mestrado e Doutorado) e Processos Tecnológicos e Ambientais (Mestrado Profissional), além de reportagens especiais produzidas com participação discente sobre as atividades brasileiras no Cern. Esta apresentação cobrirá todo o processo de operacionalização do projeto: 1) concepção, 2) planejamento, 3) conteúdo, de modo a funcionar como um estudo de caso, apresentando as práticas que se mostraram bem sucedidas a partir da experiência da Pró-Reitoria de Pós-Graduação, Pesquisa, Extensão e Inovação da Universidade de Sorocaba. Cópias dos produtos serão distribuídas aos participantes.
O IPPOG Masterclasses - Hands on Particle Physics é a atividade de Divulgação Científica que leva seus participante, alunos e professores do Ensino Médio, e alunos de graduação, a vivenciarem o trabalho em Física de Altas Energias, mesmo que por um curto período de tempo. Ele vem sendo realizado no Brasil desde 2008, na UERJ, no Rio de Janeiro, bem como no SPRACE/UNESP, em São Paulo. Aos poucos, outras universidades e institutos federais se uniram a essa atividade, auxiliando na expansão do IPPOG Masterclasses em outros estados brasileiros.
Aliadas ao IPPOG Masterclasses estão as visitas virtuais aos experimentos ATLAS e CMS, onde os alunos e professores do Ensino Médio podem visitar, virtualmente, a sala de controle dos experimentos, quando possível ver os detectores que compóe os experimentos, ou ao menos alguns dos módulos que formam tais detectores. Além disso, conversam e elaboram perguntas com um (ou mais) membro do experimento, em português, permitindo assim um contato com um profissional presente no CERN, aguçando a curiosidade dos jovens sobre ciência e ser cientista.
Em Fortaleza, o IPPOG Masterclasses integra o evento bianual "From Micro to Macrocosmos" realizado pelo grupo GEPAC. Este grupo realiza diversas atividades de pesquisa em ensino e divulgação em Astrofisica, Cosmologia e áreas afins.
A LISHEP, a escola internacional de Fìsica de Altas Energias que possui uma sessão dedicada a professores do Ensino Médio e alunos de graduação, realizada majoritariamente no Rio de Janeiro, mas também com edições em Manaus e Salvador, já teve entre suas atividades o IPPOG Masterclasses.
Apresentaremos um breve resumo das atividades de divulgação científica em Física de Altas Energias que vem sendo realizadas na UERJ (Rio de Janeiro e Nova Friburgo), na COPPE-UFRJ, pelo grupo do experimento ATLAS, na UFRN e no IFRN (Natal), na UFLA (Lavras) e no IFCE (Fortaleza), englobando o IPPOG Masterclasses, as visitas virtuais, a LISHEP e o From Micro to Macrocosmos.
The Jiangmen Underground Neutrino Observatory (JUNO) is a 20 kiloton liquid scintillator detector to be placed 700-meter deep underground at 52.5Km from 10 nuclear reactors delivering at present 26.6TW of thermal power. The detector, designed for an unprecedented 3% energy resolution at 1MeV, has a rich physics potential including the determination of the neutrino mass hierarchy, improvement of precision of oscillation parameters, observation of supernovae and geo-neutrinos and so on. Control of the systematics of the energy response is crucial to archive the designed energy resolution as well as to reach 1% precision of the absolute energy scale. For this reason there are ~18,000 20-inch photo-multiplier tubes (PMTs) in the central detector with an optical coverage greater than 75%. MA Small-PMT system of 3-inch PMT has been approved to provide a unique way to calibrate the energy response. After an overview of the observatory, the physics concept of double calorimentry will be discussed. Finally the contribution of Brazilian institutions to this international effort will be described.
In this talk we will present the development of instrumentation and analysis methods developed by several scientists in Brazil in connection with the Middle and Large Size telescopes of the CTA Observatory.
The Neutrinos Angra Project has a compact surface antineutrino detector operating aside the Angra II reactor, inside the Angra dos Reis nuclear power plant (Rio de Janeiro, Brazil). The detector transport and assemble in the power plant laboratory happened in the first months of this year and the commissioning of the detector and all support systems is happening during the first semester of 2018. The main purpose of this experiment is to monitor the reactor thermal power using only the measured reactor antineutrinos flux as input. As a surface detector, the main challenge of this experiment is to deal with a huge background and still obtain a good signal to noise separation, using carefully chosen data analysis techniques. In this work we will present the status and last results of the Neutrinos Angra Project.
Presentemente, estamos montando no IFSC câmaras de placas resistivas (RPC) para serem testadas e utilizadas no Observatório Pierre Auger para medir o sinal de múons de chuveiros atmosféricos. Apresentaremos os progressos já alcançados na montagem e operação das RPC e os planos para a sua instalação no Observatório a fim de testar seu funcionamento no sítio sob condições ambientais reais de operação. O objetivo é alcançar a calibração entre si das RPC e dos novos detectores instalados junto aos detectores de água-Cherenkov operando no Observatório, a saber, dos cintiladores e detectores subterrâneos de múons.
The CMS Phase 2 upgrade is developing a new backend system for the Tracker subdetector. The goal is to propose a generic ATCA hardware platform for three different purposes.
First, the Inner Tracker (IT) Data Trigger and Control (DTC) - that will be responsible to receive, format and organize the data coming from the Pixel Detector. It will be an interface between the Inner Tracker and the Data Acquisition (DAQ) system. Second, the Outer Tracker (OT) DTC - that will be responsible to receive, format and organize the data coming from the Strip Detector. It will be an interface between the Outer Tracker, the L1 Tracking Trigger (L1TT) system and the DAQ system. Finally, the L1TT system - that will be responsible to receive the pre-trigger data from the OT-DTC, to perform a pattern recognition algorithm, to find tracks with energy greater than 2 GeV and to discard the low energy tracks. The IT-DTC and OT-DTC systems have massive communication requirements. In other hand, the L1TT system has massive processing requirements. Thus, is a challenge to build a hardware platform that could give support for those different systems.
The KIT institute is prototyping an ATCA hardware platform based on having a generic motherboard that support customization with daughter FPGAs connected through interposers. The control and management are centralized in a Multiprocessor System-on- Chip (MPSoC) Zynq Ultrascale + (US+) device. The Zynq device will concentrated two main tasks. First, FPGA remote programming and debugging services, like IPbus, AXI Chip-to- Chip (C2C), SPI, JTAG, among other services. The environment will be based on a Linux box implemented over the Application Processing Unit from Zynq. And second, the communication between the ATCA blade and the Shelf manager using IPMI protocol. The IPMC functionality, implemented over a FreeRTOS in the Real-Time Processing Unit, will run the ATCA requirements for the communication and will perform the sensor monitoring.
The KIT approach is a centralized slow control and board management solution for the backend system hardware platform. The advantage is to reduce board complexity, to save investments and to optimize power payload usage.
One of the most important experimental programs that will address some of the open questions in neutrino physics is the Deep Underground Neutrino Experiment (DUNE). It will be the frst mega-science project on the US sole, that actually involves more than 1000 physicists. It will allow to shade light on the CP violation in the leptonic sector, on the mass hierarchy of neutrino masses and on the octant of θ23. The DUNE foresees the realization of a neutrino beam and of a near detector, both located at Fermilab (USA) and of a gigantic far detector based on the technology of liquid argon time projection chambers that will be installed at the Sanford Underground Research Facility in South Dakota, 1300 km faraway. Moreover the huge active mass of the far detector will allow to develop a rich program of non accelerator physics that includes the search for proton decay, the detection of supernova neutrinos and of atmospheric neutrinos.
The photon detection system is a fundamental component of the far detector, which will be used for timing, triggering and to improve the energy resolution of the detector for low energy events. Its baseline design is based on a device totally conceived in Brazil, the ARAPUCA. Its operating principle is based on the combination of active silicon photon sensors with a passive collector. The latter allows to increase the efective detection e ciency of the active sensors by trapping the photons inside an highly reeective box.
The Brazilian efort in developing and designing the Photon Detection System of the DUNE experiment will be illustrated.