Os conceitos por trás do EpiDoc reúnem, para epígrafos, métodos e convenções editoriais tradicionais e modernas.
Durante o último século, epígrafos lutaram por maneiras de representar informação não verbal presentes dentro de seus textos. Até o final do século 19, editores tinham a prática de produzir uma fac-símile do texto, mas isto se tornou cada vez menos comum, e editoras não demonstraram boa vontade para apresentar um registro fotográfico completo de cada texto. As convenções que foram laboriosamente desenvolvidas para indicar texto perdido, abreviações, etc. têm sido mais ou menos universalmente aceitas desde os anos 1930 e coincidem, até certo ponto, com aquelas utilizadas em papirologia e paleografia. Todos os epígrafos já tiveram que lidar com problemas relativos a transplantar isto para o ambiente eletrônico - por exemplo, encontrar uma fonte que permita o ponto subescrito; a maior parte de nós, no entanto, se ajustou a estas restições.
A dificuldade de representar estas convenções (em particular, os caracteres gregos) em fontes consistentes e na Web tende a atrasar a publicação online de textros epigráficos completos; em vez disto, coleções de busca muito ricas foram criadas, notadamente:
Veja também: Conformidade (Compatibilidade EpiDoc).
Todos estes desenvolvimentos foram determinados pelo estado da arte das tecnologias existentes, à medida que estas evoluíram ao longo do século 20. O objetivo do EpiDoc é explorar novas e ricas tecnologias e utilizá-las em conjunto com os objetivos tradicionais da epigrafia. Muitos dos processos descritos acima envolvem lutas contra os padrões tecnológicos - por exemplo, os de publicações impressas - de modo a acomodar a maior parte possível de nossas necessidades. Ao longo do tempo se tornou gradativamente mais difícil persuadir editores convencionais a atender nossa necessidade de inserção de informação meta-textual, a não ser com um custo proibitivamente alto. Ao mesmo tempo, as expectativas referentes ao volume de informação que deveria acompanhar um texto cresceram imensamente; além da informação sobre as circunstâncias físicas, o registro fotográfico se tornou padrão.
Nos últimos 15 anos os pesquisadores têm lidado, de modo geral, com necessidades similares de incorporação de meta-dados dentro dos textos em seu formato eletrônico, e ferramentas surgiram para tornar isto cada vez mais fácil, com resultados cada vez mais valiosos. O software de processamento de texto é familiar desde os anos 1980, e nos permite controlar a formatação de nossos textos, utilizando marcação que hoje está incorporada de modo invisível dentro do software. As necessidades mais complexas de grandes coleções de documentos - documentos legais e industriais, publicações comerciais - levou, nos anos 1980, à investigação de maneiras de se inserir uma gama maior de informação e instrução dentro de textos eletrônicos. Inicialmente a ênfase era na inserção de instruções de formatação, mas logo surgiram métodos de inclusão de informação semântica mais complexa relativa à estrutura do documento e até ao conteúdo. Um exemplo simples é a marcação de um título de livro como título, em vez de simplesmente destacá-lo colocando-o em itálico. O uso desta marcação mais abstrata permite uma separação entre a estrutura e a apresentação, onde a estrutura é comparativamente mais fundamental ao gênero do documento, e a apresentação pode ser variada, dependendo da forma de publicação. De certa forma, esta mudança representa um retorno a uma forma mais antiga, na qual os autores lidavam com a substância do texto e e todos os detalhes da apresentação eram tratados pelo processo de publicação - uma distinção que se perdeu nos tempos de cópias prontas para impressão.
Os protocolos que surgiram deste último esforço foram padronizados no final dos anos 1980 com o nome Standard Generalized Markup Language, emais recentemente receberam uma forma mais simples e de uso mais flexível na rede mundial, o XML: a Linguagem Extensível de Marcação. XML é hoje utilizado amplamente por pesquisadores em uma variedade de disciplinas humanísticas para capturar/representar e preservar material de pesquisa para uma variedade de objetivos.
Os atrativos do XML para os epígrafos são, portanto, consideráveis. Por exemplo, material perdido pode ser marcado como tal, e então apresentado dentro de colchetes; ao mesmo tempo, uma busca pode receber a instrução de apenas interrogar texto que não foi marcado como perdido (ou seja, apenas termos atestados). Letras incertas podem ser marcadas como tal, e mais adiante uma decisão pode ser tomada se a letra será representada com um símbolo diacrítico ou de outro modo. Palavras podem ser lematizadas durante a edição para criar índices que crescem junto com a coleção. O mais importante nesta cojuntura, no entanto, é repetir o exercício 'Leyden'; ou seja, concordar a respeito de quais sejam os equivalentes eletrônicos das diversas siglas que utilizamos. Primeiramente, isto é valioso apenas para economizar tempo e trabalho; mas a consistência, sem a imposição da uniformidade, continua a ser valiosa. Ela não apenas dá suporte ao usuário, mas também à página impressa; documentos editados desta forma e publicados eletronicamente podem ser explorados juntos, mesmo que tenham sido preparados separadamente.
A necessidade de padrões universalmente aceitos não se limita à epigrafia. Desde 1987 um consórcio internacional de pesquisadores (principalmente de humanidades) tem trabalhado em conjunto para desenvolver e refinar um conjunto de normas para a descrição da estrutura e do conteúdo de documentos. O resultado deste empreendimento foi aprodução de uma linguagem de codificação, desenvolvida em XML e descrita pelo nome do grupo - TEI, a Text Encoding Initiative (Iniciativa de Codificação de Texto).
A Iniciativa de Codificação de Texto é um trabalho de pesquisa com a meta de definir uma linguagem de codificação que atenda todas as necessidades dos estudiosos das humanidades, de modo geral. Há dois objetivos essenciais que motivam o desenvolvimento da TEI. O primeiro é ajudar pesquisadores a representar seus objetos de pesquisa na forma digital usando uma linguagem descritiva que espelhe o tipo de termos e conceitos analíticos que são familiares e essenciais ao estudo humanístico. O segundo objetivo é permitir que os pesquisadores compartilhem o material resultante de forma inteligível, através do uso de uma linguagem descritiva comum.
Podemos pensar na linguagem de codificação TEI como algo que lembra a linguagem humana: um centro de termos compartilhados, cercado por um vocabulário menos compartilhado - incluindo uso local, terminologia especializada e outras variações. No centro da TEI ficam os termos comuns e os conceitos amplamente compartilhados por pesquisadores na maioria das disciplinas: elementos como parágrafos, divisões genéricas de texto, cabeçalhos, listas, e assim por diante. Elementos mais especializados são agrupados de acordo com suas aplicações: por exemplo, elementos para a codificação detalhada de nomes, elementos para a representação das características de manuscritos, elementos para a captura da estrutura de dicionários, etc. TEI é intencionalmente organizada em módulos, para que os pesquisadores que trabalham em áreas específicas de uma disciplina utilizem apenas aqueles módulos relevantes ao seu trabalho, e descartem os outros. TEI pode, desta forma, alcançar uma grande área de atuação sem sobrecarregar pesquisadores e projetos individuais com a necessidade de dominar um grande número de habilidades, muitas das quais só são relevantes para outras disciplinas. Ao contrário, a linguagem de codificação TEI pode ser diretamente orientada a um domínio ou tarefa específicos, e pode ser limitada àquilo que é essencial ao trabalho daquele projeto individual.
Como uma linguagem humana, a TEI pode ser utilizada de forma valer-se de um vocábulário rico e cheio de nuances, com codificação detalhada que descreve muitos fenômenos textuais, mas também pode ser utilizada de forma simples, apenas com o uso dos fatos textuais mais básicos: seções, cabeçalhos, parágrafos. Quanto mais detalhada for a codificação, mais se pode fazer com ela, mas fatores como tempo, custo, equipe disponível e expertise local podem limitar o nível detalhe possível de alcançar.
Além disso, para apresentar um sistema de codificação que pesquisadores podem utilizar em sua forma original, a TEI também oferece um método para que os projetos de pesquisa definam versões customizadas da linguagem TEI, que incluem modificações necessárias para dar suporte a necessidades locais específicas. Como as versões customizadas operam dentro da estrutura geral da TEI, elas podem fazer uso de termos e conceitos chave compartilhados, desta forma evitando o trabalho desnecessário de reinventá-los. E, como a TEI oferece uma estrutura comum para a criação e descrição de customizações, elas podem ser compartilhadas com facilidade e coerência. Como resultado, grupos de pesquisadores de disciplinas particulares podem articular metas e métodos específicos para caracterizar seu trabalho, e as diferenças que o distinguem de outros trabalhos de campos relacionados. No lugar de enfoques mutuamente initeligíveis, projetos diferentes podem produzir resultados cujas diferenças resultem de discordâncias reais, em vez de simples divergências acidentais.
Dentro desta estrutura, a Comunidade EpiDoc está trabalhando desde 2000 para desenvolver uma versão customizada das Normas TEI que dê suporte às necessidades particulares dos epígrafos. A ideia foi lançada por Tom Elliott, um historiador da antiguadade na University of North Carolina em Chapel Hill; o objetivo é tanto aproveitar ao máximo o trabalho que já foi feito quanto assegurar que textos que aparecem inscritos sejam tratados de uma maneira consistente com a que foi utilizada por outros textos, e não se distanciar destes. A customização EpiDoc remove os elementos irrelevantes do corpo da TEI, e adiciona provisões para tipos específicos de transcrições, análises, descrições e classificações que são essenciais para o trabalho epigráfico. O resultado é uma linguagem simples mas poderosa que pode ser utilizada para marcar todos os elementos significativos de inscrições e também representar a informação anexa a respeito do objeto epigráfico em si.
Para acompanhar a linguagem de codificação EpiDoc, a comunidade EpiDoc também produziu um conjunto de normas de codificação e ferramentas de software, bem como documentação que descreve como utilizar a linguagem de codificação, as ferramentas e os outros elementos do método EpiDoc. O objetivo é estabelecer uma estrutura que seja fácil de aprender e usar, mesmo para pesquisadores sem experiência ou suporte tecnológico. Pode parecer improvável, mas este empreendimento é da mesma ordem de se aprender a marcação de um texto epigráfico padrão, com as séries de siglas existentes.
O grupo trabalhou para desenvolver expressões para todas as convenções epigráficas aceitas. Ele expandiu este guia para atender os diversos campos que podem estar presentes numa publicação epigráfica, inclusive:
Veja mais em: Estrutura do Documento.
Outras áreas que estão sendo ativamente exploradas incluem o desenvolvimento de interoperabilidade. Uma ferramenta de software para a conversão de textos de marcação epigráfica comum para XML de EpiDoc já foi desenvolvido (o assim chamado Conversor de Texto Eletrônico Chapel Hill (Chapel Hill Electronic Text Converter - CHETC)). Outras áreas envolvem to uso de léxico seguro. Por exemplo, o projeto Inscrições de Aphrodisias está trabalhando em proximidade com o Léxico de Nomes Pessoais Gregos, para assegurar total cobertura e uso consistente.
O trabalho, liderado pelo Dr. Elliott, tem sido desempenhado por vários pesquisadores individuais trabalhando em colaboração e em contato regular com o resto da profissão. Eles fizeram uso da experiência de um projeto EpiDoc já estabelecido, o Tabletes Vindolanda on line, e dois projetos em curso: o US Epigraphy Project (USEP) (que recebe suporte das universidades Brown, Princeton e Rutgers), e o Projeto Inscrições de Aphrodisias (Inscriptions of Aphrodisias Project - InsAph) (que recebe suporte do Conselho de Pesquisa em Artes e Humanidades - AHRC). O apoio generoso do AHRC permitiu o acontecimento do workshop intensivo de março de 2006, onde estas normas foran refinadas.