taglinefilesource code
ptep13arch/sparc/mm/loadmmu.cvoid (*set_pte)(pte_t *ptep, pte_t entry);
ptep106arch/sparc/mm/srmmu.cint srmmu_pte_inuse(pte_t *ptep)        { return mem_map[MAP_NR(ptep)] != 1; }
ptep107arch/sparc/mm/srmmu.cvoid srmmu_pte_clear(pte_t *ptep)  { pte_val(*ptep) = 0; }
ptep108arch/sparc/mm/srmmu.cvoid srmmu_pte_reuse(pte_t *ptep)
ptep110arch/sparc/mm/srmmu.cif(!(mem_map[MAP_NR(ptep)] & MAP_PAGE_RESERVED))
ptep111arch/sparc/mm/srmmu.cmem_map[MAP_NR(ptep)]++;
ptep199arch/sparc/mm/srmmu.csrmmu_pmd_set(pmd_t * pmdp, pte_t * ptep)
ptep201arch/sparc/mm/srmmu.cunsigned long page = (unsigned long) ptep;
ptep431arch/sparc/mm/srmmu.csrmmu_set_pte(pte_t *ptep, pte_t entry)
ptep434arch/sparc/mm/srmmu.c*ptep = entry;
ptep461arch/sparc/mm/srmmu.cpte_t *ptep;
ptep465arch/sparc/mm/srmmu.cptep = srmmu_pte_offset(pmdp, virt_addr);
ptep466arch/sparc/mm/srmmu.cpte_val(*ptep) = (physaddr >> SRMMU_PTE_PPN_PADDR_SHIFT) & SRMMU_PTE_PPN_MASK;
ptep469arch/sparc/mm/srmmu.cpte_val(*ptep) |= (SRMMU_ACC_S_RDWREXEC | SRMMU_ET_PTE);
ptep471arch/sparc/mm/srmmu.cpte_val(*ptep) |= (SRMMU_ACC_S_RDEXEC | SRMMU_ET_PTE);
ptep473arch/sparc/mm/srmmu.cpte_val(*ptep) |= (bus_type << 28);
ptep474arch/sparc/mm/srmmu.cpte_val(*ptep) &= ~(SRMMU_PTE_C_MASK); /* Make sure cacheable bit is off. */
ptep638arch/sparc/mm/srmmu.cpte_t *ptep = 0;
ptep665arch/sparc/mm/srmmu.cptep = srmmu_init_alloc(&mempool,
ptep667arch/sparc/mm/srmmu.csrmmu_pmd_set(pmdp, ptep);
ptep670arch/sparc/mm/srmmu.cptep = srmmu_pte_offset(pmdp, vaddr);
ptep671arch/sparc/mm/srmmu.c*ptep = srmmu_mk_pte(vaddr, SRMMU_PAGE_KERNEL);
ptep685arch/sparc/mm/srmmu.cptep = srmmu_init_alloc(&mempool,
ptep687arch/sparc/mm/srmmu.csrmmu_pmd_set(pmdp, ptep);
ptep704arch/sparc/mm/srmmu.cptep = srmmu_init_alloc(&mempool,
ptep706arch/sparc/mm/srmmu.csrmmu_pmd_set(pmdp, ptep);
ptep708arch/sparc/mm/srmmu.cptep = srmmu_pte_offset(pmdp, vaddr);
ptep710arch/sparc/mm/srmmu.c*ptep++ = srmmu_mk_pte((unsigned int) start, SRMMU_PAGE_KERNEL);
ptep712arch/sparc/mm/srmmu.c*ptep++ = srmmu_mk_pte((unsigned int) srmmu_init_alloc(&mempool, PAGE_SIZE),
ptep715arch/sparc/mm/srmmu.c*ptep++ = srmmu_mk_pte((unsigned int) srmmu_init_alloc(&mempool, PAGE_SIZE),
ptep718arch/sparc/mm/srmmu.c*ptep = srmmu_mk_pte((unsigned int) srmmu_init_alloc(&mempool, PAGE_SIZE),
ptep757arch/sparc/mm/srmmu.cptep = srmmu_init_alloc(&mempool,
ptep759arch/sparc/mm/srmmu.csrmmu_pmd_set(pmdp, ptep);
ptep762arch/sparc/mm/srmmu.cptep = srmmu_pte_offset(pmdp, vaddr);
ptep763arch/sparc/mm/srmmu.cpte_val(*ptep) = prom_pte;
ptep804arch/sparc/mm/srmmu.cpte_t *ptep;
ptep119arch/sparc/mm/sun4c.cint sun4c_pte_inuse(pte_t *ptep)        { return mem_map[MAP_NR(ptep)] != 1; }
ptep120arch/sparc/mm/sun4c.cvoid sun4c_pte_clear(pte_t *ptep)  { pte_val(*ptep) = 0; }
ptep121arch/sparc/mm/sun4c.cvoid sun4c_pte_reuse(pte_t *ptep)
ptep123arch/sparc/mm/sun4c.cif(!(mem_map[MAP_NR(ptep)] & MAP_PAGE_RESERVED))
ptep124arch/sparc/mm/sun4c.cmem_map[MAP_NR(ptep)]++;
ptep190arch/sparc/mm/sun4c.csun4c_pgd_set(pgd_t * pgdp, pte_t * ptep)
ptep193arch/sparc/mm/sun4c.cpgd_val(*pgdp) |= (((((unsigned long) ptep)) >>
ptep240arch/sparc/mm/sun4c.csun4c_pmd_set(pmd_t * pmdp, pte_t * ptep)
ptep243arch/sparc/mm/sun4c.cpmd_val(*pmdp) |= ((((unsigned long) ptep) >> (_SUN4C_PGD_PAGE_SHIFT)) & _SUN4C_PGD_PFN_MASK);
ptep367arch/sparc/mm/sun4c.csun4c_set_pte(pte_t *ptep, pte_t entry)
ptep370arch/sparc/mm/sun4c.c*ptep = entry;
ptep444arch/sparc/mm/sun4c.cpte_t *ptep;
ptep494arch/sparc/mm/sun4c.cptep = sun4c_pte_offset(pmdp, vaddr);
ptep495arch/sparc/mm/sun4c.c*ptep = sun4c_mk_pte(vaddr, SUN4C_PAGE_KERNEL);
ptep157include/asm-alpha/pgtable.hextern inline void pmd_set(pmd_t * pmdp, pte_t * ptep)
ptep158include/asm-alpha/pgtable.h{ pmd_val(*pmdp) = _PAGE_TABLE | ((((unsigned long) ptep) - PAGE_OFFSET) << (32-PAGE_SHIFT)); }
ptep174include/asm-alpha/pgtable.hextern inline int pte_inuse(pte_t *ptep)  { return mem_map[MAP_NR(ptep)].reserved || mem_map[MAP_NR(ptep)].count != 1; }
ptep175include/asm-alpha/pgtable.hextern inline void pte_clear(pte_t *ptep)  { pte_val(*ptep) = 0; }
ptep176include/asm-alpha/pgtable.hextern inline void pte_reuse(pte_t * ptep)
ptep178include/asm-alpha/pgtable.hif (!mem_map[MAP_NR(ptep)].reserved)
ptep179include/asm-alpha/pgtable.hmem_map[MAP_NR(ptep)].count++;
ptep146include/asm-i386/pgtable.hextern inline int pte_inuse(pte_t *ptep)  { return mem_map[MAP_NR(ptep)].reserved || mem_map[MAP_NR(ptep)].count != 1; }
ptep147include/asm-i386/pgtable.hextern inline void pte_clear(pte_t *ptep)  { pte_val(*ptep) = 0; }
ptep148include/asm-i386/pgtable.hextern inline void pte_reuse(pte_t * ptep)
ptep150include/asm-i386/pgtable.hif (!mem_map[MAP_NR(ptep)].reserved)
ptep151include/asm-i386/pgtable.hmem_map[MAP_NR(ptep)].count++;
ptep190include/asm-mips/page.hextern inline void pte_clear(pte_t *ptep)  { pte_val(*ptep) = 0; }
ptep234include/asm-mips/page.hextern inline void pgd_set(pgd_t * pgdp, pte_t * ptep)
ptep235include/asm-mips/page.h{ pgd_val(*pgdp) = _PAGE_TABLE | (unsigned long) ptep; }
ptep89include/asm-sparc/page.hextern void (*set_pte)(pte_t *ptep, pte_t entry);
ptep169mm/filemap.cstatic inline int filemap_sync_pte(pte_t * ptep, struct vm_area_struct *vma,
ptep172mm/filemap.cpte_t pte = *ptep;
ptep181mm/filemap.cset_pte(ptep, pte_mkclean(pte));
ptep187mm/filemap.cpte_clear(ptep);