Lines Matching refs:old_spte
469 u64 old_spte = *sptep;
473 if (!is_shadow_present_pte(old_spte)) {
475 return old_spte;
478 if (!spte_has_volatile_bits(old_spte))
481 old_spte = __update_clear_spte_slow(sptep, new_spte);
483 WARN_ON(spte_to_pfn(old_spte) != spte_to_pfn(new_spte));
485 return old_spte;
502 u64 old_spte = mmu_spte_update_no_track(sptep, new_spte);
504 if (!is_shadow_present_pte(old_spte))
512 if (spte_can_locklessly_be_made_writable(old_spte) &&
521 if (is_accessed_spte(old_spte) && !is_accessed_spte(new_spte)) {
523 kvm_set_pfn_accessed(spte_to_pfn(old_spte));
526 if (is_dirty_spte(old_spte) && !is_dirty_spte(new_spte)) {
528 kvm_set_pfn_dirty(spte_to_pfn(old_spte));
543 u64 old_spte = *sptep;
545 if (!spte_has_volatile_bits(old_spte))
548 old_spte = __update_clear_spte_slow(sptep, 0ull);
550 if (!is_shadow_present_pte(old_spte))
553 pfn = spte_to_pfn(old_spte);
562 if (is_accessed_spte(old_spte))
565 if (is_dirty_spte(old_spte))
2986 u64 *sptep, u64 old_spte, u64 new_spte)
3004 if (cmpxchg64(sptep, old_spte, new_spte) != old_spte)
3007 if (is_writable_pte(new_spte) && !is_writable_pte(old_spte)) {